CONVERSOR CGA ----> SCART

psf
Mensajes: 27
Registrado: 19 Dic 2023 21:44
Agradecido : 8 veces
Agradecimiento recibido: 5 veces

Re: CONVERSOR CGA ----> SCART

Mensajepor psf » 31 Ene 2024 08:03

Último mensaje de la página anterior:

XDDD Cierto, Jepeto alucina y mucho, lo se. Pero tambien sabemos q ha "leido" mucho sobre el tema.

No se prácticamente nada sobre el tema y GPT puede acercarme a lo q busco, y es lo q intento en la conversación, q me de pistas. Sabemos q no sabe hacer operaciones matemáticas, pero en la conversación da resultados bien calculados, luego en algun sitio ha visto esos calculos para esa aplicación.

Tanto en este hilo, como en otras webs he visto el mismo conjunto de resistencias para hacer este conversor y gepeto parace confirmar q esos calculos son correctos. No se si m explico. GPT no es fiable, pero sabe mucho....

Al margen de esto, sabeis si las resistencias del circuito estan bien? :_ D M quita el sueño el no conseguir ninguna imagen

Avatar de Usuario
cacharreo
Mensajes: 755
Registrado: 03 Jun 2023 09:37
Ubicación: /home/cacharreo/
Agradecido : 244 veces
Agradecimiento recibido: 427 veces

Re: CONVERSOR CGA ----> SCART

Mensajepor cacharreo » 31 Ene 2024 11:03

mvalder escribió:Ja, ja, ja. Mi experiencia es la misma. GPT alucina literalmente. Pero no hay preocuparse, porque OpenAI tiene un plan.

Eso sí, como humorista no tiene precio.

La causa de todo esto es que no tiene ni la más mínima idea de lo que está haciendo, no comprende ni remotamente el problema que intenta resolver. Por eso en nuestro ejemplo va probando combinaciones para la asociación en serie o en paralelo de las 3 resistencias para calcular la resistencia total hasta que finalmente el usuario le confirma que el resultado es correcto. Lamentablemente, como en el caso del burro que tocó la flauta por casualidad, un resultado correcto no implica un proceso lógico válido.

El artículo sobre ChatGPT y sus alucinaciones no entra en detalles técnicos pero se intuye que hablan de solucionarlo añadiendo nuevas variables/pesos a los que eufemísticamente llaman recompensas. Añadir nuevas variables solo añadirá mayor complejidad y eso solo llevará a un sistema más complejo pero no necesariamente más preciso. Añadir una nueva variable/peso nunca podría compensar el terrible hueco en la información (y hablo de información que no maneja o de la que no dispone) que se necesitaría para completar el puzzle, piezas en blanco que encajan (sintácticamente) en otras.

Por ponerlo en perspectiva, aún a riesgo de que genere una discusión paralela poco relacionada, hablamos de supuestas IA que no distinguen a un perro de un gato sobre el mismo fondo nevado, que no distinguen los pasos de peatones de otras marcas viales, una bicicleta del dibujo de la misma,... solo hay que revisar los absurdos sistemas de CAPTCHA que se utilizan para que presuntos bots se confundan.

(Atención: se avecina ladrillazo)

Estos problemas se llevan debatiendo desde hace 50 años y, en este ámbito, destacó el experimento mental propuesto por John Searle en 1980 conocido como la habitación china (citado por Roger Penrose en el más que interesante "La nueva mente del emperador").

Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada que le da un hablante natural de ese idioma, estas entradas serían los signos que se le introducen al ordenador, la cual más tarde proporciona una respuesta en su salida. Supóngase a su vez que este ordenador supera fácilmente la prueba de Turing, ya que convence al hablante del idioma chino de que sí entiende completamente el idioma, y por ello el chino dirá que el ordenador entiende su idioma.

Ahora Searle nos pide que supongamos que él está dentro de ese ordenador completamente aislado del exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos en chino.

Supongamos también que fuera de la sala o ordenador está el mismo chino que creyó que el ordenador entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos (algo parecido a «Si entran tal y tal caracteres, escribe tal y tal otros»).

De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído ese idioma.

Pero aunque este sistema maneje el chino, no entiende el idioma, es decir, quien quiera que esté dentro de la habitación no entiende lo que está haciendo, nada más lo hace. Por consiguiente, el que un ordenador maneje un idioma, no significa que este entienda lo que está haciendo, nada más significa que está realizando una acción.

A su vez, la persona que maneja el chino no solo se puede entender como una persona, lo que trata de mostrar el ejemplo es el cómo los ordenadores no entienden lo que manejan y nada más siguen unas reglas ya determinadas sin tener que entenderlas.

Eel ordenador tan solo maneja información sintáctica, es decir, nada más siguen un curso de acción, sin contenido propio. Los humanos manejamos información semántica con contenido, lo que nos asegura que comprendamos lo que hacemos.

Que un sistema pueda responder a acciones con una acción, no significa que tenga inteligencia en sí mismo,​ todo lo que hace para responder a las acciones con una acción es ininteligible para él, simplemente responde a las acciones con una acción que genera mediante inferencias, creando relaciones y agrupando, para determinar una conclusión basta y probable de ser errónea.

psf escribió:No se si m explico. GPT no es fiable, pero sabe mucho....

Al menos crea textos verosímiles.

psf escribió:Al margen de esto, sabeis si las resistencias del circuito estan bien? :_ D M quita el sueño el no conseguir ninguna imagen

Suponiendo que el cable es el correcto (con sus 21 pines conectados) pienso que es la televisión más que el circuito.

Las resistencias parecen estar bien, simplificando el problema de nuevo a una entrada de intensidad y uno de los colores, con 1kΩ, 470Ω y una impedancia en la entrada del televisor para dicho color de 75Ω, tendríamos que

Código: Seleccionar todo

----------------+-----------+---------
|Intensidad (V) | Color (V) | TV (mV)|
----------------+-----------+---------
|           0   |       0   |    0   |
|           0   |       5   | ~646   |     
|           5   |       0   | ~304   |
|           5   |       5   | ~950   |
----------------+-----------+---------

A simple vista está que es coherente, que está dentro de las especificaciones (presupongo un rango de 0-1V para la entrada en la TV de cada color RGB) y que cumple con el principio de superposición, esto es, el resultado para I=0 y C=5 sumado al resultado para I=5 y C=0 es exactamente el mismo que el resultado para I=C=5.
© cacharreo

psf
Mensajes: 27
Registrado: 19 Dic 2023 21:44
Agradecido : 8 veces
Agradecimiento recibido: 5 veces

Re: CONVERSOR CGA ----> SCART

Mensajepor psf » 31 Ene 2024 14:49

Gracias cacharreo.

Como ves yo tampoco se lo que estoy haciendo, solo voy probando hasta que algo parece estar correcto :_ D

Respecto a las resistencias, gracias de nuevo por confirmar, me fio mas de tus calculos que los de GPT jeje Supongo que esos calculos que me dio los habra visto en algun log de chat, fijate que en dos ocasiones me pide que le espere a que piense :_ D pero no necesita tiempo para eso, solo le dije q vale xD

A ver si saco otro rato, robado de sueño, y me busco la manera de medir las salidas de cada pin del CGA, no sea que yo tenga algo al reves o mal conectado... El cable alargador q se ve en las fotos lo hice yo, pero si se lo monto al monitor del ordenador funciona perfectamente, esta conectado 1 a 1. Para medir tengo un osciloscopio de esos de los chinos, a ver si me da para ver algo en claro, aunque solo sean los picos.

Avatar de Usuario
minter
Mensajes: 4768
Registrado: 22 Jul 2014 18:51
Agradecido : 6598 veces
Agradecimiento recibido: 2561 veces

Re: CONVERSOR CGA ----> SCART

Mensajepor minter » 31 Ene 2024 15:06

Ya por aplicar la ley de Murphi en los conectores, que a mí me ha pasado. (Y mas de una vez) -banghead

El DB9 tiene del 1 al 5 (Arriba) y del 6 al 9 (Abajo) Evidente.

Esperemos que no estés confundiendo el 1 con el 5 y el 6 con el 9 por eso de verlo por delante o por detrás.

Si, ya se que parece una respuesta muy básica e infantil, pero de despistados está el mundo lleno. -11

psf
Mensajes: 27
Registrado: 19 Dic 2023 21:44
Agradecido : 8 veces
Agradecimiento recibido: 5 veces

Re: CONVERSOR CGA ----> SCART

Mensajepor psf » 31 Ene 2024 18:08

xDDD Me paso una vez con una PCB a la q puse un conector ATX con los pines al reves, menos mal q suelo revisar 7 veces antes d enchufar :_ D

En este caso hice la PCB con easyeda, y he dado por sentado q la huella tiene los pines bien, pero tengo q sacar un rato mirar q sea así.

Gracias por el aviso ;)

Avatar de Usuario
WhatIsAMan
Mensajes: 1148
Registrado: 10 Dic 2017 17:06
Ubicación: El castillo invertido
Agradecido : 389 veces
Agradecimiento recibido: 461 veces
Contactar:

Re: CONVERSOR CGA ----> SCART

Mensajepor WhatIsAMan » 01 Feb 2024 21:43

cacharreo escribió:
mvalder escribió:Ja, ja, ja. Mi experiencia es la misma. GPT alucina literalmente. Pero no hay preocuparse, porque OpenAI tiene un plan.

Eso sí, como humorista no tiene precio.

La causa de todo esto es que no tiene ni la más mínima idea de lo que está haciendo, no comprende ni remotamente el problema que intenta resolver. Por eso en nuestro ejemplo va probando combinaciones para la asociación en serie o en paralelo de las 3 resistencias para calcular la resistencia total hasta que finalmente el usuario le confirma que el resultado es correcto. Lamentablemente, como en el caso del burro que tocó la flauta por casualidad, un resultado correcto no implica un proceso lógico válido.

El artículo sobre ChatGPT y sus alucinaciones no entra en detalles técnicos pero se intuye que hablan de solucionarlo añadiendo nuevas variables/pesos a los que eufemísticamente llaman recompensas. Añadir nuevas variables solo añadirá mayor complejidad y eso solo llevará a un sistema más complejo pero no necesariamente más preciso. Añadir una nueva variable/peso nunca podría compensar el terrible hueco en la información (y hablo de información que no maneja o de la que no dispone) que se necesitaría para completar el puzzle, piezas en blanco que encajan (sintácticamente) en otras.

Por ponerlo en perspectiva, aún a riesgo de que genere una discusión paralela poco relacionada, hablamos de supuestas IA que no distinguen a un perro de un gato sobre el mismo fondo nevado, que no distinguen los pasos de peatones de otras marcas viales, una bicicleta del dibujo de la misma,... solo hay que revisar los absurdos sistemas de CAPTCHA que se utilizan para que presuntos bots se confundan.

(Atención: se avecina ladrillazo)

Estos problemas se llevan debatiendo desde hace 50 años y, en este ámbito, destacó el experimento mental propuesto por John Searle en 1980 conocido como la habitación china (citado por Roger Penrose en el más que interesante "La nueva mente del emperador").

Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada que le da un hablante natural de ese idioma, estas entradas serían los signos que se le introducen al ordenador, la cual más tarde proporciona una respuesta en su salida. Supóngase a su vez que este ordenador supera fácilmente la prueba de Turing, ya que convence al hablante del idioma chino de que sí entiende completamente el idioma, y por ello el chino dirá que el ordenador entiende su idioma.

Ahora Searle nos pide que supongamos que él está dentro de ese ordenador completamente aislado del exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos en chino.

Supongamos también que fuera de la sala o ordenador está el mismo chino que creyó que el ordenador entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos (algo parecido a «Si entran tal y tal caracteres, escribe tal y tal otros»).

De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído ese idioma.

Pero aunque este sistema maneje el chino, no entiende el idioma, es decir, quien quiera que esté dentro de la habitación no entiende lo que está haciendo, nada más lo hace. Por consiguiente, el que un ordenador maneje un idioma, no significa que este entienda lo que está haciendo, nada más significa que está realizando una acción.

A su vez, la persona que maneja el chino no solo se puede entender como una persona, lo que trata de mostrar el ejemplo es el cómo los ordenadores no entienden lo que manejan y nada más siguen unas reglas ya determinadas sin tener que entenderlas.

Eel ordenador tan solo maneja información sintáctica, es decir, nada más siguen un curso de acción, sin contenido propio. Los humanos manejamos información semántica con contenido, lo que nos asegura que comprendamos lo que hacemos.

Que un sistema pueda responder a acciones con una acción, no significa que tenga inteligencia en sí mismo,​ todo lo que hace para responder a las acciones con una acción es ininteligible para él, simplemente responde a las acciones con una acción que genera mediante inferencias, creando relaciones y agrupando, para determinar una conclusión basta y probable de ser errónea.

psf escribió:No se si m explico. GPT no es fiable, pero sabe mucho....

Al menos crea textos verosímiles.


Mis cinco céntimos.
Desde los primeros microprocesadores de 4 bits, todos tienen la suma en su unidad aritmético-lógica. Todos son capaces de sumar, sin embargo no saben qué es una suma.

Cuando estaba en la universidad hice un programa que analizaba funciones matemáticas y era capaz tanto de integrarlas como de derivarlas, ordenar sus términos, simplificarla, sustituir variables y calcular su valor en función de éstas. Lo hice por el clásico trabajo del cálculo del área debajo de una curba...

Aún cumpliendo los objetivos la profesora se negó a aceptar el trabajo, a su parecer eso era un trabajo "fácil" porque los ordenadores "saben hacer cálculos". Nunca quiso interesarse en el hecho que aunque saben hacer cosas, no saben qué es lo que es ni por qué. Sólo lo hacen rápido. Si están programados para lanzarse contra el enemigo y segar vidas a la vez que se autodestruyen tampoco van a dudar. No van a cuestionar si lo que hacen es correcto o no ni tampoco tendrán dudas existenciales en sus últimos momentos.

Aunque mis líneas previas iban más bien enfocadas al proyectil "Javelin", con ChatGPT no es muy distinto. Intentar hablar con él de Spectrums soviéticos sólo le hace vomitar cosas del Elektronika BK aunque lo hayas corregido en la misma conversación y te lo haya reconocido como cinco veces.

Creo que me viene el mono. Me voy a soldar. El aroma me va a ir bien...

Saludos

Avatar de Usuario
cacharreo
Mensajes: 755
Registrado: 03 Jun 2023 09:37
Ubicación: /home/cacharreo/
Agradecido : 244 veces
Agradecimiento recibido: 427 veces

Re: CONVERSOR CGA ----> SCART

Mensajepor cacharreo » 01 Feb 2024 21:55

WhatIsAMan escribió:Desde los primeros microprocesadores de 4 bits, todos tienen la suma en su unidad aritmético-lógica. Todos son capaces de sumar, sin embargo no saben qué es una suma.

Cierto pero no requiere saber que es una suma para hacerla. Por contra hay tareas que sí requieren saber qué se está haciendo.

WhatIsAMan escribió:Aunque mis líneas previas iban más bien enfocadas al proyectil "Javelin", con ChatGPT no es muy distinto. Intentar hablar con él de Spectrums soviéticos sólo le hace vomitar cosas del Elektronika BK aunque lo hayas corregido en la misma conversación y te lo haya reconocido como cinco veces.

Es una experiencia muy humorística, sobre toco cuando pierde el contexto. Estás hablando con ChatGPT de videojuegos, preguntas por "otros títulos" y se pasa a películas, canciones o libros. Para hacer justicia hay que decir que también pasa con algunas personas que no procesan las frases ni analizan la gramática y solo responden en función de respuestas emocionales "preprogramadas" basadas en las palabras gatillo y las asociaciones automáticas que les desencadenan.

Una curiosa prueba es preguntarle por algo inexistente y ver que no solo no dice que no existe sino que inventa una respuesta, completamente verosimil.

► Mostrar Spoiler

WhatIsAMan escribió:Creo que me viene el mono. Me voy a soldar. El aroma me va a ir bien...

Uno de los mejores aromas. A disfrutarlo. ;)
© cacharreo

Avatar de Usuario
WhatIsAMan
Mensajes: 1148
Registrado: 10 Dic 2017 17:06
Ubicación: El castillo invertido
Agradecido : 389 veces
Agradecimiento recibido: 461 veces
Contactar:

Re: CONVERSOR CGA ----> SCART

Mensajepor WhatIsAMan » 02 Feb 2024 09:27

cacharreo escribió:
WhatIsAMan escribió:Desde los primeros microprocesadores de 4 bits, todos tienen la suma en su unidad aritmético-lógica. Todos son capaces de sumar, sin embargo no saben qué es una suma.

Cierto pero no requiere saber que es una suma para hacerla. Por contra hay tareas que sí requieren saber qué se está haciendo.

En el momento en que se requiere de tareas más complejas, como las mencionadas anteriormente, se requiere "enseñarle" al bicho qué es lo que está haciendo... aunque en mi caso sólo fueran nodos de un árbol de datos.

La gente acostumbra a confundir acciones mecánicas con inteligencia. Por desgracia, al ejecutarse muy rápido dan la impresión de ser inteligentes.

Si en tu "habitación china" un chino entra un texto y se pone a esperar una respuesta, ¿quién de los dos será el que el chino crea más listo? ¿El ser humano o la máquina? Desde fuera todo el mundo tendrá la impresión de que la máquina es más lista aunque sólo sepa hecer eso y el hombre sepa hacer muchas más cosas independientemente de la tarea de hablar chino.

psf
Mensajes: 27
Registrado: 19 Dic 2023 21:44
Agradecido : 8 veces
Agradecimiento recibido: 5 veces

Re: CONVERSOR CGA ----> SCART

Mensajepor psf » 03 Feb 2024 10:37

Wenas,

He estado mirando los pines de salida del ordenador, estan numerados en el propio conector.

El osciloscopio es muy malo, pero se aprecia una onda en los pines del 3 al 6, no parece una señal cuadrada. Parece estar entre 0.5v y 0.8v, mas o menos. Los calculos q hicimos sobre 5v deben estar mal.

Otra cosa rara, y que no m cuadra con cga, es el pin 7, que parece un pwm, u onda cuadrada entre 0 y 4v. Pero cga dice q este pin debe estar desconectado, Es raro, además los picos están muy espaciados. No conseguí verlo con mas detalle.

Los pines 8 y 9 si son cuadradas y me cuadran con sincronismo, tambiénestan entre 0 y 4v.

Comparando con pinout ega,, tampoco cuadra, los pines del 2 al 7 deberían ser entre 0 y 1v.

Por si acaso pille el id del chip de la grafica, es un TC21SC090AF y tiene un cristal de 32.000 mhz. Mas tarde subo foto.

El pc la identifica como cga, no se.

psf
Mensajes: 27
Registrado: 19 Dic 2023 21:44
Agradecido : 8 veces
Agradecimiento recibido: 5 veces

Re: CONVERSOR CGA ----> SCART

Mensajepor psf » 11 Feb 2024 22:54

Wenas,

Otra batalla perdida -banghead El esquema del post parece no funcionar sin meterle un pogoton de modificaciones. Imagino que lo haria andar con algun adaptador extra q se paso mencionar o un modelo concreto de tv.

Lo q he visto porai a la venta es mucho mas complejo de lo q parece este.

Al final le monte la vga de mi 286, q solo usa la extensión isa para memoria extra q no tiene, asi q es una vga 8 bits.

Gracias a todos por la ayuda -drinks

mvalder
Mensajes: 549
Registrado: 21 May 2023 02:04
Agradecido : 489 veces
Agradecimiento recibido: 268 veces

Re: CONVERSOR CGA ----> SCART

Mensajepor mvalder » 11 Feb 2024 23:04

psf escribió:Wenas,

Otra batalla perdida -banghead El esquema del post parece no funcionar sin meterle un pogoton de modificaciones. Imagino que lo haria andar con algun adaptador extra q se paso mencionar o un modelo concreto de tv.

Lo q he visto porai a la venta es mucho mas complejo de lo q parece este.

Al final le monte la vga de mi 286, q solo usa la extensión isa para memoria extra q no tiene, asi q es una vga 8 bits.

Gracias a todos por la ayuda -drinks

Pues lo has resuelto. Ahora veo que buscas una VGA de 16 bits en otro hilo. A disfrutarlo con salud.


Volver a “PC & Compatibles X86”

¿Quién está conectado?

Usuarios navegando por este Foro: No hay usuarios registrados visitando el Foro y 1 invitado