jueves, 21-11-2024
Retos de la inteligencia artificial
Debe estar autenticado para compartir
Rafael Hernández: La posibilidad de hacer un debate sobre inteligencia artificial es algo que estamos valorando desde el año pasado, así que recurrí a Bruno Henríquez, mi compañero de aula del Preuniversitario, para que me ayudara en este empeño, puesto que él es un conocedor de ese campo. Bruno, científico geofísico, e incluso escritor de ciencia ficción, está aquí no solo como panelista sino como arquitecto de este encuentro, él fue quien pensó las principales preguntas y propuso los invitados al panel; yo me he limitado a hacer lo que siempre hago, moderar.
Están con nosotros además de Bruno, amigos que se relacionan, según sus especialidades o intereses, con este tema, como Luciano García, quien es un pionero en esta problemática, y Roberto Corral, que es profesor de Historia de la Psicología, y que demuestra que esto de la inteligencia artificial no es solo de los cibernéticos y de los que se ocupan de las ciencias de la computación; y José Miguel Sánchez, más conocido por Yoss, y también más conocido como escritor de ciencia ficción que como biólogo, y si alguien se presta especialmente para hablar de este tema es él. Y finalmente Alejandro Jiménez, asesor en la Academia de Ciencias en relación con esta problemática de la inteligencia artificial.
Antes de la primera pregunta quiero hacer referencia al hecho de que este tema no es solo de las ciencias exactas, o de las aplicadas, también es de las ciencias sociales. Con la aparición de la energía atómica, la exploración del espacio exterior, la nanotecnología, la computarización, se crearon o se magnificaron grandes medios científicos que revolucionaron la vida de la gente. La generación de energía, la medicina, las comunicaciones, la informática, el manejo masivo de datos, el control y la prevención de enfermedades, la aeronáutica, el transporte global de bienes y personas, son resultados de la revolución científico-técnica y de sus aplicaciones.
También, en sus sucesivas estaciones, ha dado lugar a otras derivaciones no tan buenas, como el auge de la carrera armamentista, la militarización del espacio exterior, la proliferación de las armas de destrucción masiva, el ciber espionaje, la violación de los derechos humanos, el control y la invasión de la privacidad ciudadana, y han repercutido en la destrucción del medioambiente, la modernización de las intervenciones militares y otras agresiones a gran escala contra la soberanía de numerosas naciones. Esto no es la culpa de la ciencia sino de sus aplicaciones.
Este novedoso tema también es muy polémico, y esa es una de las razones por lo que lo traemos aquí. Yo, al menos, tengo la impresión de que no se habla lo suficiente de inteligencia artificial fuera de los medios que tienen que ver directamente con la ciencia y la tecnología. Cuando uno registra periódicos, en cualquier parte verá noticias, problemas, acontecimientos, grandes hechos de la política; pero varios de esos grandes hechos que afectan la vida de la gente están directamente relacionados con la inteligencia artificial, y apenas esta se trata en los medios. No me refiero al uso de drones para matar gente, sino al tema mismo de la IA y de su regulación. Así como se ha creado una Oficina Internacional de la Energía Atómica para tratar de regularla, los organismos internacionales están empeñados en regular la inteligencia artificial porque esta se desborda.
Yo, en particular, tengo la impresión de que ponemos películas de ciencia ficción donde hay armas de destrucción masiva y cosas horrorosas, y hablamos de extraterrestres, de un aerolito que va a caer y nos va a destrozar a todos, pero creo que de la inteligencia artificial entre nosotros se habla muy poco, al menos no lo suficiente.
Para empezar, tenemos un pequeño video que trajo Alejandro para, dice él, provocarnos. Entonces, Alejandro, explica, por favor.
Alejandro Jiménez: Este pequeño corto fue producido a comienzos de febrero de este año y está tomado del sitio de un grupo de discusión ruso. Es un video que integra una sucesión de usos de inteligencias artificiales generativas, está hecho con imágenes procesadas a partir de Midjourney, y utilizaron después Runway para generar la animación, y para las voces y la traducción al ruso se utilizó Elevenlabs, que es otra empresa que produce, en este caso, tratamiento de doblaje con voces de los personajes; por ejemplo, en las películas, cambiando de idioma, ese tipo de cosas. El original se puede ver en Youtube. Los materiales que se usaron para crearlo son sintéticos; lo único que no es sintético es la música, que es de un músico japonés, que vive en Hollywood, y es grabada; todo lo demás, las imágenes, la animación, el sonido, las voces y la traducción, está hecho con inteligencia artificial. Ese es un ejemplo; como se verá, todavía es rudimentario, todavía es algo que no aspira a ganar un Oscar. Lo interesante es que el proceso completo es hecho con inteligencia artificial en sus distintas partes. Es lo que quería explicar.
Rafael Hernández: Gracias Alejandro. La primera pregunta al panel es: ¿qué es la inteligencia artificial, en qué se basa, cómo funciona?
Foto: Revista Temas.
Luciano García: Para mí no va a ser posible porque no pienso dar una definición de inteligencia artificial. Eso sería como imponer al auditorio un enfoque específico de ella. Lo que pretendo es hacer una panorámica sobre cómo se ha ido desarrollando la ciencia de la inteligencia artificial.
Vamos a situarnos en varias etapas; la primera es en el desarrollo de las ciencias de la computación: qué es computar, calcular, deducir. En estos momentos, desde el punto de vista de la matemática y de la computación, son la misma cosa. Se trata de hallar solución a los problemas, con las computadoras.
¿Cómo los resolvemos? Como siempre lo han hecho los seres humanos, siguiendo un conjunto finito de instrucciones y aplicándolas a los datos de una clase de ellos para obtener un resultado. Esta definición es intuitiva; desde el punto de vista de las ciencias de la computación no es rigurosa. Entonces, un lógico matemático inglés llamado Alan Turing dio una rigurosa de qué es computar, y es la que funda la ciencia de la computación. Esa definición de Turing está en un artículo que publiqué, hace cincuenta y cinco años, en el número 30 de la revista Pensamiento Crítico, con el cual introduje la inteligencia artificial en nuestro país y, al parecer, también en América Latina.
Podemos decir que la definición de Turing realmente dio lugar al nacimiento de una máquina abstracta, pero hasta el día de hoy se considera que es el modelo de todas nuestras computadoras, cualesquiera que estas sean, incluyendo las cuánticas, que todavía no las hay. Turing descubrió que hay problemas que no pueden resolverse bajo la concepción de algoritmos. Los hay que no son decidibles, es decir, cuya respuesta sea sí o no. Una gran cantidad de problemas de la industria, los servicios, etcétera, pueden ser gestionados como de decisión, y él quería demostrar, fundamentalmente, que desde un punto de vista teórico, en matemáticas, por ejemplo, hay problemas que son no decidibles.
Vamos a una segunda etapa de evolución de la computación. En la medida, por ejemplo, en que el número de las tareas N y de las máquinas M aumentan, crecen las posibilidades de hallar una solución del problema; hay un espacio de búsqueda que realmente es explosivo, hay lo que denominamos en matemática una explosión combinatoria de ese espacio, los cálculos se hacen exponencialmente.
Y entonces la definición que da Turing nos dice: «Tenemos que sacrificar efectividad por eficiencia», y de ahí viene esta segunda etapa en la cual aparecen mecanismos que fueron introducidos por la inteligencia artificial, que hace su aparición por primera vez. En el año 1955, aunque adelantado cinco años, ya él también había introducido la inteligencia artificial, a la que llamó «inteligencia de máquinas». Pero la bandera se la llevó un grupo de investigadores norteamericanos que se reunieron en la Conferencia de Dartmouth; en ella, por primera vez, Herbert Simon, Allen Newell y J. C. Shaw hicieron programas en los cuales se utilizaban maneras heurísticas, cuyo concepto nace, por lo tanto, ligado al desarrollo de la inteligencia artificial. La heurística es una regla de tanteo, un atajo mental para resolver un problema; pero eso ataca la efectividad, entonces hay que hacer una transacción entre eficiencia y efectividad en la solución de problemas, ese es el segundo aspecto.
Todo lo que acabo de decir tiene que ver con problemas en los cuales hay información completa y exacta. Cuando vamos a resolver un problema, como el que expuse antes, conocemos las máquinas, lo que puede hacer cada una de ellas, las tareas, en qué máquinas estas se pueden hacer, etcétera. Eso está muy bien, pero hay casos que no tienen información completa, y en los cuales también hay incertidumbre en cuanto a los datos que se utilizan. Uno que todos conocemos es el del diagnóstico médico; no hay una relación unívoca, ni mucho menos entre enfermedades, ni entre síntomas y signos, y hay mucha incertidumbre a veces en los datos que se le toman a un paciente para resolver su enfermedad. El diagnóstico es típico de esta situación. ¿Cómo lo resuelven los médicos? Con conocimiento, con experiencia.
Y lo que se les ocurre a algunos especialistas en inteligencia artificial es construir sistemas expertos, extraerles el conocimiento a expertos en cada materia y ponerlo en una base de datos y simular la forma en que ellos procesan esa información. Así surgieron sistemas expertos, otro desarrollo grande de la inteligencia artificial, que persiste hasta nuestros días con una variante: la ciencia avanza, un sistema experto se desactualiza, se inventa la ingeniería del conocimiento. ¿Hay que volver a empezar?
Entonces aparece una nueva solución dentro de la inteligencia artificial, pero que los seres humanos conocemos muy bien: aprender de los datos, de la experiencia. Eso da lugar a que el aprendizaje se convierta en una de las áreas más estudiadas, hasta estos días, dentro de la inteligencia artificial, dando lugar a un área específica que se denomina en estos momentos aprendizaje de máquinas, y les puedo decir que lo que se ha logrado en esa área del conocimiento con respecto al aprendizaje supera en mucho lo que hasta ese momento conocíamos.
Foto: Pedro Pablo Chaviano/Revista Temas.
Yoss: Creo que lo más polémico con respecto a la inteligencia artificial es su definición, mucha gente la consideraba inseparable de la autoconciencia, o sea, que surgiría en el momento en que una máquina dijera: «Yo soy yo y estoy separada de lo demás». Los últimos avances de la ciencia nos muestran que una inteligencia artificial puede tener cualquier cosa menos autoconciencia. Cuando se especulaba sobre su vertiente fuerte que imitaría el funcionamiento del cerebro humano, o la vertiente débil, que trataría de llegar a él, nadie imaginó que en un momento determinado un programa como Deep Blue iba a vencer a Garry Kasparov, el mejor ajedrecista del mundo, no por inteligencia, sino por simple fuerza bruta de procesamiento.
Lo que hoy llamamos inteligencia artificial realmente no es inteligente; no se sale de su programa. Deep Blue le ganó a Kasparov no porque tuviera intuición, sino porque analizaba absolutamente todas las jugadas posibles a una velocidad que Kasparov ni ningún ser humano era capaz de imitar. Hoy, esas inteligencias artificiales que tanto preocupan a los dibujantes, a los pintores, a los escritores, que lo mismo uno les da unos parámetros y dibujan un personaje, o escriben un manual de instrucciones mucho mejor que las traducciones de coreano que a veces vienen con los equipos electrodomésticos, no son realmente inteligentes, no son conscientes de lo que están haciendo, se les introduce las reglas de la sintaxis, y constantemente chocan, porque los idiomas están llenos de acepciones, de vericuetos, los idiomas no son programas, todo el que ha tratado de aprender esperanto dice: «Qué fácil es, es programático», pero nadie quiere hablarlo, es aburrido, no tiene color, es comida de hospital. Las inteligencias artificiales son geniales procesando comida de hospital, procesan cinco mil platos al día, y al final producen comida de hospital con errores, algunas veces se les olvida echarle sal al boniato, otras veces le echan azúcar al arroz; pero son capaces de aprender. Hace unos meses se decía que nunca podrían dominar las manos, y había ejemplos de cómo cuando hacían dibujos aparecían manos con seis dedos o en posiciones anatómicamente imposibles. Ya lo hacen. Las inteligencias artificiales se basan en algoritmos de aprendizajes, si se puede decir piramidales, evolutivos, que van privilegiando las que mejor respuesta tienen. Es, de alguna manera, una relación como la que existe entre la oferta y la demanda, si ChatGPT no lo hace bien, Midjourney se gana los clientes; por lo tanto, ChatGPT tiene que mejorar.
Lo que llamamos inteligencia artificial no es más que sistemas de expertos muy desarrollados, no son autoconscientes, no parece que lo vayan a ser, no va a ser mañana el momento en que va a llegar la pesadilla de Matrix y nos va a dejar de lado. Los que se preocupan de que en un momento determinado produzcan todo lo que hace el ser humano se olvidan de un problema, a la inteligencia artificial todavía le falta un «pequeño detalle»: la voluntad. Ninguna inteligencia se ha puesto a dibujar quinientas versiones de El Quijote porque se le ocurrió, hay que enviarle la orden.
Hace muchos años un autor de ciencia ficción cubano, Ángel Arango, se hizo famoso con un cuento que se llamaba «¿Adónde van los cefalomos?», en el que planteaba que una tripulación de una nave llegaba a un planeta e iban poco a poco renunciando a todas las características físicas del ser humano, a los brazos, porque tenían máquinas que manipulaban por ellos, a las piernas porque tenían máquinas con ruedas que los llevaban a todas partes, a pensar porque tenían máquinas que pensaban por ellos. Lo único que se guardaron, lo único que los hacía humanos, era la voluntad. En el momento en que una inteligencia artificial le diga a un usuario: «Yo no quiero hacer esto, o no puedo hacer esto porque éticamente me programaron para que eso fuera incorrecto, o mi programación me impide pensar en Carlos Manuel de Céspedes negro y con dreadlocks», en esos momentos será inteligente y autoconsciente, y ya veremos qué pasa entonces.
Alejandro Jiménez: Quiero empezar por advertir que no estoy aquí por la Academia de Ciencias; supongo que tiene que ver con un debate que durante unos cuantos días tuvimos Bruno y yo en un grupo de Telegram. Estoy más como una persona que trabaja la divulgación de la ciencia de datos, si acaso, y de alguna manera he desarrollado algunas habilidades para compactar información o para tratar de traducirla.
Lo digo porque lo primero que me parece importante acotar es por qué estamos aquí. Se renueva el debate sobre la inteligencia artificial, la primera pregunta que hacía Rafael es qué es, en qué se basa y cómo funciona, y mi primer enfoque es tratar de contextualizar eso; no por definir el concepto, sino de qué inteligencia artificial estamos hablando, si como sistema científico y tecnológico, o de alguna clase de inteligencia artificial en particular. Creo que también podemos referirnos a las que no han llegado a eso, que son las que expresan alguna clase de creatividad, vamos a decir. Hay una serie de descubrimientos de la última década que serían como la continuación de lo que el profe Luciano ha dicho, y que yo me voy a tomar la atribución de mencionar los nombres solamente: las redes neuronales, que no son nuevas, e incluso habían sido aplastadas por unas cuantas opiniones que hablaban de inviernos de la inteligencia artificial; otros expertos las descalificaron sucesivas veces; pero entonces aparecen las redes neuronales generativas, que supuestamente tienen la capacidad de ser creativas. Para poner un ejemplo de una manera muy rápida: creemos una imagen mental: una caja negra con muchas entradas y unas pocas salidas, que tiene la misión de extraer datos, saber, determinar que hay datos en esa imagen; para ello contiene unas agrupaciones singulares, interconexiones, internodos, que son sucesivas capas de redes neuronales; cada una tiene distintas responsabilidades. Lo que van a hacer las entradas es alimentar muchas, centenares, millones de imágenes, y por la salida van a aparecer los parámetros que determinan si una imagen contiene un dato o no; es decir, se va a extraer la esencia de qué cosa es un dato o qué no lo es. La idea de la red generativa es tomar ese resultado e introducirlo en sentido contrario, o sea, darle la orden de: «Esto es un dato, y estos son los parámetros de un dato, y produce la imagen» que en este caso va a ser una imagen generada por la inteligencia artificial, porque hay algo que no he dicho, allá adentro hay una cantidad determinada de aleatoriedad, que es regulable. Es lo que se llama temperatura.
Entonces se trata de una serie de descubrimientos que han ido perfilándose en la última década, y que han tenido desarrollos muy concretos, redes adversariales, que es un mecanismo de aprendizaje, la conexión de un par de redes donde una aprende y otra le critica lo que está aprendiendo para perfilarlo; el descubrimiento del mecanismo de atención, es decir, cómo trabajar con el contexto para entender o para procesar lo que hay que responder, la conversación anterior y los datos que existen.
Existen otras áreas que se redistribuirán ahora en el nuevo escenario; los sistemas expertos no son la inteligencia artificial, son un área de ella, los grafos de conocimiento son algo que existe y que está muy bien definido, y completará lo que es deficitario en las redes generativas. Todas estas áreas de la inteligencia artificial se unirán, se redistribuirán, y generarán un producto que todavía no está claro, pero ya eso es funcional. Esa es la idea.
Rafael Hernández: Gracias, Alejandro. La segunda pregunta: ¿cuáles son los usos y potencialidades favorables al desarrollo de la inteligencia artificial, en qué campos, para qué sirven?, ¿qué cosas buenas se derivan de la inteligencia artificial? Le doy la palabra a Roberto Corral.
Roberto Corral: Ayer me preguntaron qué iba a hacer un psicólogo en este panel. Es que estamos hablando de inteligencia artificial, y entonces hay que empezar hablando de inteligencia, un concepto que inventamos nosotros, los psicólogos, porque es el más vago, indefinido e impreciso que puede imaginarse. No sabíamos qué pasaba dentro de la mente humana, solo lo que hacía; y el mundo social definía qué era exitoso, qué era eficiente, qué era eficaz, y había personas más eficaces que otras, y decíamos que eran más inteligentes que otras.
Al principio trabajamos con tres cosas: percepción, o sea, cómo captamos el mundo; memoria, cómo lo guardamos y lo procesamos; y cómo resolver problemas, que es lo que decía Luciano. Eso nos fue aceptablemente bien para hacer tests de inteligencia, que no se los cree nadie, eso no sirve para nada; pero nos explotó la bomba, y resultó que alguien dijo: «No hay una sola inteligencia, ustedes están hablando de inteligencia racional; hay una inteligencia estética, una espacial, una matemática, etc.», y resulta que tenemos un montón de inteligencias. Ya se nos complicó.
¿Cómo afrontamos eso? La cibernética y el amigo Alan Turing nos regalaron tres conceptos para poder entrar en la mente: el primero, información, qué pasa, qué se mueve dentro de la cabeza. Información, simple y llanamente, con mayor o menor complicación. El segundo, teoría de los sistemas autorregulados; si el ser humano es uno de ellos, él mismo regula su propia acción, y así aprende, hace cosas, resuelve problemas; y finalmente la computadora, que era un instrumento excelente, y empezamos a tratar de entender qué pasaba dentro de la cabeza del hombre cuando resolvía problemas. Es lo que hoy llamamos psicología cognitiva contemporánea, donde no se puede dar dos pasos sin hablar de computación. De ahí salieron los sistemas expertos, el modelado de montones de cosas que se empezaron a usar en la cibernética. Se creó una extraña sinergia entre la psicología cognitiva, que empezaba a elaborar sus cosas, y la computadora, que las copiaba, o viceversa, porque esto funcionó al revés, por ejemplo, las redes sociales las descubrió uno de nosotros: Frank Rosenblatt, que era psicólogo.
La solución de problemas es tan vieja en psicología como más de un siglo; lo interesante es que teníamos que trabajar en conjunto, y aprendimos que el ser humano utiliza programas, según les dicen en cibernética, nosotros los llamamos procesamiento sistemático, basado en reglas, y funcionamos con ellas para resolver cosas. Para eso no hay que hacer una máquina, y por ahí comenzó el vínculo con la inteligencia artificial, que empezó a moverse más o menos como los panelistas han explicado; pero viene de esa idea más original de inteligencia que era vaga, que es básicamente solución de problemas, memoria y procesamiento de datos, y hasta ahí hemos llegado.
¿En qué campos y para qué sirve? A veces pensamos que el ser humano es un ser individual y lo que tiene lo tiene individualmente. Por ejemplo, para los sistemas expertos agarramos al experto —en eso he trabajado— y tratamos de sacarle cómo hace algo, qué procedimiento utiliza, y para dónde va, y qué hace primero. De pronto nos dimos cuenta de que eso era absurdo, el ser humano no resuelve problemas así, porque es un ser social, vive en colectividad, y lo primero que hace un médico cuando se traba el caso es hacer una junta de médicos, conversar entre todos, y así buscar las mejores soluciones. Que yo sepa, las computadoras no han llegado hasta ahí, o si han llegado…
Luciano García: Existen los sistemas multiagentes.
Roberto Corral: Perfecto, pero eso depende de la experiencia de cada uno, y esa vitalidad es la que no se puede quitar. ¿Para qué servirá la inteligencia artificial, que yo prefiero llamarla tecnología de la inteligencia, porque el ser humano se ha conformado con estas? Siempre ha habido una simbiosis con la máquina. La primera máquina es la palabra, y es una tecnología de la inteligencia, la escritura es una tecnología, y nos cambió el mundo. Si uno mira para atrás, ve que había una época antes de la escritura y después de la escritura. Llegó Gutenberg, y aquello fue el desastre, la posibilidad de multiplicar toda la escritura. Por eso la iglesia se puso en contra, y Gutenberg, muy inteligente, lo primero que imprimió fue una Biblia para que todo el mundo estuviera tranquilo, pero lo que no dicen, y eso lo descubrí, es que la quinta obra que imprimió fue un Tratado de brujas. ¡La imprenta servía para hacer Biblias y para hacer tratados de brujería! Por lo tanto, ¿en qué campos?, la técnica no es ni buena ni mala, pero no es neutral, depende de quién la use y para qué la use.
Hay un viejo cuento africano que dice que un rey le pidió a uno de sus sabios, «Vete al mercado y tráeme lo mejor que encuentres», el sabio fue y le trajo una lengua, «¿Cómo una lengua?», dijo el rey. «Sí, porque con la lengua se dice lo mejor, con la lengua se ha construido tu imperio, con la lengua se resuelven todos los problemas». El rey lo mandó de nuevo al mercado:, «Ahora tráeme lo peor que hayas visto», Y le trajo una lengua: «Porque con la lengua se va a derrumbar tu imperio, se van a acabar todos tus problemas, y no vas a poder llegar a ninguna parte». La inteligencia artificial, que para mí es una tecnología de la inteligencia, es como esa lengua, puede ser usada en cualquier sentido.
Alejandro Jiménez: Seguimos en la segunda pregunta, que tiene que ver con potencialidades y usos, lo digo al revés porque me gustaría precisar las potencialidades para entonces hablar de los usos. Sigo contextualizando estas inteligencias artificiales de ahora, a partir de finales de 2022, no aquellas desde la definición de las múltiples. Estas son redes que tienen la característica de ser inmediatas, ubicuas, accesibles a casi todo el mundo, excepto cuando son bloqueadas desde la dirección de internet. No tienen capacidades especiales, y eso yo creo que es lo más decisivo de todo, por parte del usuario; ¿por qué los sistemas expertos, la web semántica —que es el área en la que yo trabajo—, son difíciles? Porque deben tener un experto de la inteligencia y uno del área del conocimiento trabajando en conjunto para llegar a las definiciones. Esas potencialidades son, para mí, las que me permiten proponer ahora dónde usar esto. Son sistemas modulares, que se programan justamente con aprendizaje de máquinas, que se pueden usar según el material, el dato con que se le alimente. Se ha dicho en esta época que la inteligencia artificial es la nueva electricidad, y los datos, o la big data son el petróleo, la materia prima. Es la analogía con la Revolución Industrial 4.0.
Entonces, si se programan para reconocer personas a la entrada de un metro, lo harán; pero si se trata de elegir libros según el gusto del usuario, no servirán para eso. Por tanto, la pregunta que más me interesa es qué no pueden hacer. Creo que es más interesante saber qué limitaciones tienen, o qué no les está yendo bien, precisamente por su propia definición, por su propia naturaleza. Esas limitaciones tienen que ver, por ejemplo, con su imprecisión, con su capacidad de alucinar, de fabular, de inventar respuestas cuando no tienen las buenas. Cualquiera que haya trabajado con estas inteligencias ha hecho ya, seguramente, algunos experimentos. Voy a exponer uno: yo necesitaba una frase de algún científico famoso para algo que me pidieron sobre las bibliotecas o los archivos, y le pregunté a la IA. Me dio una frase excelente de Einstein. Cuando le pregunto dónde la dijo, no pudo documentar de dónde la sacó. Fue una alucinación maravillosa, creativa, genial, pero no me sirvió porque la atribución no era real. En esas áreas donde se requiere capacidad de justificación, hay un problema con la IA. De momento no se puede utilizar en esos campos, sin comprobar el dato por otras vías.
Como decía hace un rato, estas inteligencias artificiales no van a funcionar solas, sino en conjunto con otros campos disciplinarios que pueden complementar ese déficit, sobre todo si hay un área fuerte como la de los grafos de conocimiento, la web semántica. Stephen Wolfgang, que es el padre de la computación simbólica, matemática, Wolfram Alfa, programas absolutamente conocidos, decía que justamente cuando se combine esta área de la inteligencia generativa, creativa, con el área en la cual no es fuerte, con los grafos de conocimiento, donde en definitiva nuestro aprendizaje está todo colocado, esa información que es válida, que es exacta, que es fidedigna, entonces ya estaremos hablando de que esas limitaciones y esos campos de uso podrían no ser tan limitados y pueden usarse en otras nuevas esferas. Ya lo está haciendo, ya hay plugins de ChatGPT para hacer eso,
No estamos hablando de algo que ocurrió hace cuarenta años, sino de algo que despertó a finales del 2022, es decir, que está ocurriendo ahora mismo, Tenemos que estar al tanto de lo que está pasando.
Rafael Hernández: Tenemos un pacto social con el público, y ahora le toca hablar. Antes, quiero leer algunos temas que tienen que ver con aplicaciones de la inteligencia artificial, que es la pregunta que acabamos de hacer. Fui a Google Académico y registré qué investigaciones se habían publicado sobre inteligencia artificial, y las investigaciones sobre inteligencia artificial que se publicaron en Europa, en Estados Unidos y en América Latina, en los últimos cinco años. Son estos temas: seguridad nacional, estrategia, democracia, poder, educación, derechos humanos, regulación, cooperación, salud pública, asistencia conversacional al público en gobiernos locales, gobierno electrónico, usos en la recuperación postpandemia, la administración pública, y como herramienta política para trabajar la opinión pública en tópicos como la percepción sobre los refugiados, poderes emergentes y cooperación interestatal, ética, política y economía de los algoritmos, relación de poder entre acceso a la tecnología y tiranía, seguridad nacional e implicaciones estratégicas de la apertura de la inteligencia artificial, usos en sistemas penitenciarios, cárceles tecnológicamente avanzadas, carreras para la ventaja estratégica, cómo remodelar la represión. Esos son títulos de investigaciones; información, comunicación, transparencia y gobernanza, liderazgo y valores públicos mediante algoritmos y big data, estrategia de los chinos y seguridad nacional, actitudes y tendencias en la política de los Estados Unidos. Para todo eso sirve, y ha servido; ya hay estudios de eso, no es que pudieran hacerse, sino que ya se han hecho.
Le doy la palabra entonces al primero que la pidió, que fue Julio César Guanche.
Julio César Guanche: La inteligencia artificial (IA) es un motor de transformación en muy diversos ámbitos. Ofrece beneficios potenciales que abarcan desde la salud global hasta el impulso económico. En el sector de la salud, la IA promete revolucionar la precisión diagnóstica y personalizar tratamientos, salvando potencialmente millones de vidas mediante la medicina de precisión y el mejoramiento en el análisis de datos médicos. En el ámbito educativo, la personalización del aprendizaje a través de la IA tiene el potencial de superar barreras educativas tradicionales, y permitir a los estudiantes aprender a su propio ritmo y mejorar la calidad educativa. A nivel económico, la automatización y optimización de procesos gracias a la IA prometen aumentar la eficiencia y reducir costos, impulsando crecimiento económico y creando nuevos modelos de negocio.
En Ecuador, por ejemplo, la implementación de sistemas auxiliares de diagnóstico con IA para el análisis rápido de tomografías de pacientes con sospecha de COVID-19, la transformación del sector camaronero mediante IA y big data, y la implementación de drones de última generación para la vigilancia de cultivos, son ejemplos del impacto significativo de la IA en mejorar la capacidad de respuesta ante emergencias sanitarias, impulsar la economía local y proteger el patrimonio agropecuario de un país.
A la vez, el avance de la IA también plantea extraordinarios desafíos éticos y sociales. La IA generativa, entrenada en vastos volúmenes de datos de Internet, puede, y de hecho lo hace con enorme frecuencia, replicar y perpetuar sesgos y discriminaciones existentes. Existen preocupaciones muy fundadas sobre la privacidad y seguridad de la información personal debido a la recopilación y análisis masivos de datos por sistemas de IA. Además, la automatización impulsada por la IA amenaza con desplazar a trabajadores humanos, a la vez que ya precariza trabajos existentes, como los trabajadores de delivery a través de plataformas.
La huella de carbono de la IA y el consumo energético de los centros de datos representan también preocupaciones críticas, que requieren mucha más atención.
Los fuertes recortes de los equipos de ética de la IA en empresas como Microsoft, Google y Meta en 2023, hacen muy visibles el peso de las demandas de mercado, que van en dirección contraria a la necesidad de garantizar un desarrollo ético y responsable de la IA. Los muchos ejemplos de sistemas de IA que adoptan comportamientos problemáticos, como el de un robot diseñado como rapero que termina expresando mensajes racistas evidencian el problema de datos que comprometen la integridad y el rendimiento de los modelos de IA.
La filosofía del «extractivismo de datos», que tiene a estos como materia prima de la cuarta revolución industrial y del nuevo tipo de capitalismo —«capitalismo de plataformas» o «de vigilancia»—, hace imprescindible abordar cómo se captura la desigualdad racial y social a través de los algoritmos.
La presencia de sesgos en sistemas de reconocimiento facial, sobre todo en mujeres afrodescendientes, y sesgos raciales en el sistema sanitario, resaltan la importancia de adoptar estadísticas conscientes de la historia.
Es crucial visibilizar cómo los sesgos históricos se infiltran en los sistemas automáticos, creando «bucles de discriminación» recurrentes y «ciclos dañinos de interacción» entre tecnología y desigualdades que involucran la clase, el género y la idea de raza.
Ante esta realidad, es imprescindible que la implementación y el desarrollo de la IA se acompañen de un enfoque crítico y ético que considere no solo las promesas sino también los desafíos sociales y sociotécnicos que conlleva. Esto requiere de un compromiso fuerte para garantizar que la tecnología avance dentro de un marco de protección de derechos humanos.
Hamlet López: Como parte de la línea de investigación que trabajo en el Instituto Cubano de Investigación Cultural Juan Marinello, estudio las dimensiones culturales de las tecnologías digitales en la sociedad cubana, y junto a un grupo de coautoras de la Facultad de Comunicación publiqué este mes un libro disponible gratuitamente en el sitio web del Instituto Juan Marinello, que se titula De GPT a LLaMA. Una breve guía práctica sobre Inteligencia Artificial Generativa para Cuba, donde se discute un poquito de la historia, de los peligros, de los desafíos que tiene también; y lo más importante, hace énfasis en algunas recomendaciones para lograr un uso ético, reforzable, viable, soberano, robusto de la inteligencia artificial generativa, que creo que para los profesores cubanos es importante porque lo que se está viendo se está incorporando a flujos de trabajo, sobre todo en lo que tiene que ver con comunicación social, con los medios de comunicación, y está aumentando la productividad de estas organizaciones y de esos profesionales, y en ese sentido nos interesó hacer este libro, para de alguna manera cooperar con el desarrollo de las competencias y habilidades de los profesores cubanos, ese era el mensaje que me interesaba más hacer. Muchas gracias.
Luis A. Montero: Tenemos que aprender todos de esto. Yo, que imparto la asignatura de Informática, en la Facultad de Química, he aprendido mucho de Luciano y de todos los colegas, y hay que decir que esto hay que introducirlo en los programas de estudio, esto es parte de la cultura imprescindible de este siglo, y de los que vienen después. Pienso, modestamente, que lo que estamos haciendo en realidad es estudiarnos a nosotros mismos, cómo formamos nuestra propia inteligencia, y al final cómo aprendemos, y hemos aprendido a aprender, y creado computadoras que lo hacen más rápido que nosotros, porque nuestro procesamiento de información es químico, las computadoras lo hacen electrónicamente, son mucho más eficientes, y con estos conceptos nada de tenerle miedo, al contrario, qué bueno, porque como bien se ha dicho aquí, los seres humanos hemos tenido siempre muchos avances, muchas cosas que han sido positivas o negativas en dependencia de cómo se hayan usado, lo que uno no puede tenerle miedo de ninguna forma a lo que ha desarrollado el conocimiento y la tecnología.
Jesús Menéndez: Médico jubilado. Estoy en un grupo de geriatras de Latinoamérica, y me estaban invitando hace cuatro días a un Zoom sobre la aplicación de la inteligencia artificial en la condición clínica de las personas adultas mayores; o sea, no es que está llegando, es que ya está. Entonces, apoyo la obligatoriedad de tener esto en los programas de estudio tanto de pregrado como de posgrado.
Fernando García Bielsa: Hace unos días, leía en un artículo que la guerra de Ucrania estaba sirviendo un poco como polígono de prueba de armamentos y de tecnología, incluyendo cuestiones de aplicación de la inteligencia artificial. A partir de lo que decía Yoss de la imposibilidad de que pueda tener voluntad, y la complejidad que tendría en cuanto a estrategia, pregunto si sería de utilidad para la cuestión táctica, para el manejo de informaciones diversas al mismo tiempo, porque creo que en cuanto a política y en cuanto a la parte estratégica de la guerra no creo que la inteligencia artificial tenga ese poder.
Felicia Ríos: Profesora de Ciencias Médicas, Cátedra del Adulto Mayor. Creo que más que un reto tenemos que aprovechar el lado de la oportunidad. Como todo lo construimos teniendo, como dice Roberto, y lo que pienso es que tenemos. Hace muchos años trabajé con un alemán que justamente vino a trabajar en lo de Inteligencia artificial, realmente nos quedamos, en la anécdota de un sistema de expertos, porque esto ha sido utilizado en el mundo para prospección de minerales estratégicos, radioactivos, y para toda esa serie de cosas, para la prospección de problemas sociales, también sistemas de expertos, y biología, para el manejo de la información y de la opinión, y además, en la medicina, para medicina a distancia, sobre todo en aquellos lugares más alejados, inhóspitos y que no llegaba, y que se pueda lo mismo hacer una placa, o una tomografía axial, cualquier cosa que pueda ser analizada, y con un sistema interactivo sí o no, pueda ir llegando a soluciones lógicas.
Pero bueno, en el caso de Cuba, en la situación crítica que estamos ahora, compleja, difícil, es una realidad objetiva la inteligencia artificial; tenemos muchos logros en educación, en ciencia, en medicina, y hay que aprovechar la oportunidad, y comparto la opinión del profesor Menéndez de que hay que incorporarlo ya en el sistema de educación superior.
Depende de quién la use, porque el constructo y la ideología está implícita, cada vez que hay un ser humano moviéndose en cualquier medio ahí hay ideología, hay esferas de poder, hay de todo lo que hemos construido, lo bueno y lo malo, a nosotros nos toca tratar de aprovecharnos de eso, porque la realidad es esta, y saber por dónde van los tiros de la parte enemiga, que es, manipular la información, los jóvenes, los estados de opinión, el deporte, y crearnos un mundo donde todo sea virtual como la economía, que no es real.
Rafael Hernández: La siguiente pregunta es cuáles son las amenazas y peligros de la inteligencia artificial. ¿Se trata de que hay una reacción psicológicamente explicable frente a una cosa rara, nueva, y frente a todo lo raro y lo nuevo tendemos a reaccionar de esa manera preocupada? ¿Se trata de que realmente hay amenazas y peligros en el uso efectivo de la inteligencia artificial, no en sus potencialidades?
Bruno Henríquez: Ya la prensa, las redes y la ciencia ficción nos han traído muchas amenazas a la inteligencia artificial, de cómo se va a destruir. Yo voy a recordar las leyes de Arthur C. Clarke sobre las nuevas ideas. Dice que todo lo nuevo en algún momento va a generar rechazo, y sobre ello se crean mitos. Resumo la primera: «eso es malo o no sirve» cada vez que hay una idea nueva, cualquier cosa que sea. Segunda: «si quieres hazlo, pero no vas a llegar a nada». La tercera es: «yo siempre dije que era una buena idea», dicha por la misma gente que se oponía. Yo le añadí un corolario que dice que al frente de un proyecto ponen al primero que se opuso. Tengo ejemplos: cuando se creó el Frente de Energía Renovable pusieron a un ingeniero nuclear que se había opuesto a ella totalmente.
Rechazar lo nuevo es habitual. ¿Saben de dónde viene la palabra sabotaje?, de sabot, el zapato de madera que tiraban los obreros a las máquinas para inutilizarlas, porque iban a dejar sin trabajo a la gente. Cuando los primeros automóviles empezaron a circular mandaban a un niño delante, con una banderita, porque atrás venía un monstruo con una velocidad terrible que no llegaba a veinte kilómetros por hora. En esta época, cualquier freno a las innovaciones es un atraso. Vamos a viajar cien años al futuro, cuando uno mire y diga: «¿Regular la inteligencia artificial?, qué salvajes eran».
Vamos a ver qué puedo contestar de las preguntas, es que yo veo que las primeras amenazas son las que no lo parecen, o sea, hay cosas que son ventajas, pero las interpretamos como amenazas. En una época anterior yo tenía un programa de ciencia ficción en que puse una película que se llamaba Idiocracia, en la que la humanidad iba a hacerse cada vez más idiota porque las máquinas y todo lo demás lo hacían por ellos. Además, se reproducían más los que menos tenían, claro, ponían el coeficiente de inteligencia como hereditario. La prohibición del uso de la inteligencia artificial es la primera respuesta conservadora. No es prohibirlo, eso va a venir, incluso se habla de hacer leyes, regulaciones, organismos internacionales, que es una idea muy buena, pero el Organismo Internacional de la Energía Atómica está por el uso pacífico, pero los que están haciendo las bombas nucleares no ponen reparos en usarlas, aunque haya las regulaciones más grandes, y sabemos que Israel, Corea y todo el mundo tienen esas armas, los que no pueden tenerlas son los que empiezan ahora.
Otra cuestión es que se ven solo las desventajas o solo las ventajas; ese es uno de los riesgos que hay, que nos polaricemos de un lado o del otro. Al principio del siglo xx, los químicos habían descubierto los plásticos, y era la gran esperanza, ahora no sabemos cómo salir de la contaminación por plástico. Los primeros cohetes que se mandaron al espacio fueron un gran avance, pero ahora estamos rodeados de basura atómica que cae, que sube, que se queda, y además, hay armas inteligentes en órbita que nunca se usaron y que los terrícolas se han olvidado de ellas. ¿Recuerdan El día de los trífidos? En cualquier momento se activa una de ellas y no sabemos lo que va a producir acá. Esa es una amenaza, pero no es de la inteligencia artificial, sino del procesamiento y la creación de dispositivos inteligentes, o sea, que trabajen por sí solos, que hagan acciones para las que nosotros tenemos que pensar, y esas son grandes amenazas. Si lo resumo, es que perdimos el control, y una de las cosas que necesitamos es tener el control, no como prohibición, sino como conocimiento y saber qué es lo que va a pasar.
Otra de las cosas es ¿sabemos conversar, interactuar con las máquinas, con la inteligencia artificial, con la de hoy y la de mañana? Hoy es la inteligencia artificial; mañana será la mente artificial, las personas artificiales; pasado mañana, las personas sintéticas que puedan pensar, y, además, que puedan ir a otros planetas. Esto no va a ser Flash Gordon ni Bud Rogers, la radiación nos mata, somos organismos de carbono, muy vulnerables a cualquier cosa, a estar fuera de nuestro hábitat, fuera de este sistema donde estamos, vivir en la luna. Hay gente que vive en la luna, que conste, pero en la realidad va a ser muy difícil. Una de las primeras cosas es que aunque el día de la luna dura catorce días, en Marte dura igual que en la Tierra; parece que nos lo pusieron ahí para ir, pero hay un desierto lleno de radiación, y no vamos a poder ir si no es con la ayuda de la inteligencia artificial. El peligro va a estar en si la sabemos usar o no, si sabemos conversar con ella o no.
Luciano García: Estamos estudiando esto en nuestro grupo de inteligencia artificial, y haciendo un análisis de todas estas amenazas y peligros. Hemos hecho una distinción entre los peligros y las amenazas que están presentes en la inteligencia artificial débil, que es de los que habló Bruno; son los sistemas que tienen sesgos discriminatorios, por ejemplo, o de otra índole. Esos hay que tratarlos de una manera, y los otros son aquellos que se derivarían de la inteligencia artificial que antes se llamaba fuerte, y que en estos momentos se denomina inteligencia artificial general, que es la que tiene que ver con el problema de cuándo las máquinas logren comprender, tener intencionalidad y poder, en última instancia; también tener conciencia, autoconciencia, etc. Esos son peligros que podemos anunciarlos ahora, pero no los que tenemos que afrontar en estos momentos, sino a aquellos que ya están, que hemos construido en IA, que pertenecen más bien al enfoque de la inteligencia débil, en la cual hemos hecho un desacoplamiento entre inteligencia y conciencia. Yo no sé, eso lo tienen que discutir, a lo mejor Roberto puede hablar mucho mejor acerca de eso; pero lo cierto es que no todo lo que hacemos, lo hacemos conscientemente ni pensando en la conciencia ni un diez por ciento. Esa es la que nos interesa ahora.
Hay una lista interminable de problemas, porque frecuentemente, por no decir casi todos los días aparecen denuncias o reclamaciones, y algunas inteligencias artificiales tienen que ser retiradas. Por ejemplo, Google acaba de retirar su Gemini, porque ha tenido problemas, como alguien habló de eso aquí, por presentar soldados nazis como si fueran de la raza negra; eso ha creado lo que algunos han llamado un racismo contra los blancos, y peor todavía, hay quien le ha hecho preguntas peligrosas. Alguien le preguntó a Gemini qué pensaba de la pederastia, y resultó que al final esta estaba diciéndole a la persona: «Tenga mucho cuidado». Por lo tanto, no entendió la pregunta o contestó de una manera totalmente inadecuada sobre un problema que todos sabemos que no es de odio. Todo eso hizo que la semana pasada Google retirara a Gemini, para poder darles solución a esos problemas.
Los del Grupo de Inteligencia Artificial estamos trabajando en eso, y hace poco discutimos un software hecho por un joven profesor nuestro, que hizo su doctorado con un programa muy bueno, haciendo una IA, que sea capaz de analizar otras donde están esos mismos problemas.
Todo esto es complejísimo, porque, por ejemplo, no es solo los problemas que producen estas IA que tienen sesgos, están también los ataques que pueden recibir. Es probable que este asunto de la pederastia haya surgido de un ataque que alguien hizo a Gemini, pero Gemini tiene que cuidarse de esos ataques, que pueden hacerse por cualquier usuario. Los hay mucho más sofisticados como, por ejemplo, de ingeniería inversa, en los cuales a partir de una respuesta que me da un sistema de IA se logra captar datos privados de una persona que está consultando esa IA. Eso sí hay que hacerlo con mecanismos estudiados en las ciencias de la computación. Es lo que quería decir al respecto.
Yoss: Quiero contar dos anécdotas; una, que en el año 1726 el Papa Inocencio II, haciéndole honor a su nombre, inocentemente trató de prohibir la ballesta, alegando que era un arma inhumana y que no era digno de cristianos utilizarla; el resultado fue que nadie le hizo el menor caso, siguieron usando ballestas. Digo esto para demostrar que cada vez que se intenta prohibir algo, es absurdo; una vez que sale el genio de la botella es imposible volverlo a guardar. La gente dice: «Al menos se logró una moratoria de las armas nucleares». Esto es del año 45. Lo único que se logró es que todas las potencias se miraran unas a otras con arsenales reventando de ojivas nucleares, y todas tuvieran tanto miedo a las consecuencias, a la doctrina de destrucción mutua garantizada, que nadie las pudiera utilizar.
La otra cuestión es, como decía Bruno, que hay tres etapas con respecto a toda invención, primera: esto es absurdo, es ilegal, es anticristiano, es contrarrevolucionario, y nunca más lo utilizaremos; segunda etapa: esto tiene su cosa; y tercera: pero claro, cómo podemos imaginarnos sin ello. ¿Alguno recuerda lo que decían los programas y las revistas cubanas de tecnología cuando empezó la ola de los celulares? Cuba nunca necesitará eso, somos fanáticos de la comunicación humana, en Cuba Internet no es necesaria. ¿Recuerdan a Mariela Castro diciendo: «El pueblo cubano no está preparado para Internet»? La tecnología llega, estemos preparados o no, las inteligencias artificiales están aquí para quedarse.
Y la otra cosa que quiero comentar es la siguiente: piensen en un secador eléctrico de pelo; parece lo más inocente del mundo, más allá de su forma de pistola; pero si alguien se está bañando y lo dejamos caer conectado en el agua, electrocutamos al bañista. Sin embargo, nadie prohíbe portar secadores de pelo, nadie pide licencia para comprarlo. Toda innovación tiene la capacidad de usarse para la destrucción; probablemente la primera persona que creó la rueda nunca pensó que a algunos mártires del cristianismo, durante el Medioevo, se les iba a someter al suplicio de la rueda, ni que en algún momento iba a haber carros blindados que pasarían por encima de las tropas de infantería.
La inteligencia artificial está aquí, se está utilizando para cosas muy buenas, para hacer sondeos de opinión, para crear una serie de respuestas, para utilizar cuidadores de ancianos, que es un problema en nuestra sociedad donde cada vez hay más viejos y menos gente que produzca y que los cuide. Se vuelve un problema funesto.
Pero también la inteligencia artificial está detrás de los drones, detrás de las armas dirigidas, detrás de los sistemas que responden a ataques a una velocidad tan grande que los humanos no pueden decir que no.
Probablemente muchos conozcan la famosa anécdota del año 1986, cuando un mayor soviético detectó un misil que estaba penetrando en las defensas soviéticas, y que a diferencia de lo que ordenaba la doctrina, él decidió no disparar. Resultó que era un error de la máquina, si hubiera sido una máquina la que hubiera tenido el poder de apretar el botón la Tercera Guerra Mundial ya sería cosa del pasado y estaríamos, como dijo Einstein, ensañados en la Cuarta, cayéndonos a estacazos.
Todos estamos de acuerdo en que las inteligencias artificiales deben ser controladas, en que no se les puede permitir campear por sus respetos; pero, lamentablemente, ¿quién puede controlar las inteligencias artificiales sino otras inteligencias artificiales? Los profesores de hoy que dicen: «A cualquiera que me traiga un trabajo redactado con inteligencia artificial lo voy a coger», ¿qué usan para detectar eso?: otra inteligencia artificial.
Estamos enfrentándonos a un punto en que la gran pregunta es quién vigila a los que vigilan; tienen que vigilarse unos a otros. Las inteligencias artificiales tendrán que crear un sistema de vigilarse unas a otras. Que una vigile a ChatGPT, y esta vigile a una tercera; porque han escapado de nuestro control. Afortunadamente, todavía no sueñan con la autoconciencia, una de las grandes paradojas de la ciencia ficción decía: «Si las máquinas se volvieran autoconscientes, ¿qué les harían a los seres humanos?». Una de las respuestas más divertidas es: «Nada, absolutamente nada, ¿qué les harías tú a las moscas que vuelan por tu casa?». Probablemente cuando la inteligencia artificial llegue a la autoconsciencia nosotros ni siquiera nos enteremos; quizás ya lo haya hecho hace tiempo y simplemente nos permiten existir.
Alejandro Jiménez: Aterrizo de nuevo en las inteligencias artificiales generativas, las amenazas, los peligros, y la noción de peligro, que está muy ligada a algo anterior, que es la vulnerabilidad. Me parece interesante hablar de por qué somos susceptibles a esos peligros, precisamente porque somos vulnerables, en algunos sentidos, en nuestra interacción, o a partir de consumir lo que produce este tipo de inteligencia artificial generativa. Por ejemplo, históricamente, por todo el precedente de consumo de la información generada por computadora, confiamos en las máquinas, que dan resultados exactos. Si alguien se equivocó de signo cuando no nos pagaron correctamente el día del cobro, no fue la máquina, el programa no se equivocó, sino el que metió los datos. Es lo que todos razonamos, porque confiamos ciegamente en la máquina.
Ya hemos hablado de que estas inteligencias artificiales tienen problemas con la justificación de las verdades que sostienen. Es lo que estamos viendo en el caso de Gemini, que en estos días es famoso por ese sesgo racial. Eso tiene que ver con las diferentes maneras en que aprende un ser humano y una inteligencia artificial generativa. Los humanos aprendemos con algo que en pedagogía se conoce como life long learning (aprendizaje a lo largo de toda la vida). Algunos, incluso profesores, creen que aprendemos por lo que estudiamos en la escuela, y en realidad es la menor parte, escolarizada, y eso también está demostrado. La mayor parte lo aprendemos por nuestro contacto con la sociedad, y otras formas de aprendizaje formales e informales.
Entonces estamos tratando de introducir en el cerebro, en la memoria, vamos a decir, estas inteligencias artificiales, de una manera rápida, brusca, sintética, una enorme cantidad de información. Pero ahí se presentan sesgos, y ocurre algo interesante, no hay criterio de ponderación, de distinguir si esa información que se le está inyectando emana de lo que dice un comentarista deportivo o un experto en el tema de que se trata. La ponderación va acompañada del criterio de juicio de lo que se está emitiendo; si todo va junto, si todo se introduce de una manera rápida, nos perdemos esa parte de la historia, y cuando obtenemos la respuesta, la inteligencia artificial no nos está diciendo, como sí lo hace Wikipedia, o se les exige a los que la redactan: «falta acreditar esta fuente». Eso nos lo perdemos por ahora. Es un problema de aprendizaje, donde todavía el ser humano está superando al masivo, rápido, voluminoso, de la inteligencia artificial, que está tratando de lograr, además, un aprendizaje global.
Esto genera otro par de problemas, el “plagiarismo”, Hace poco The New York Times demandó al ChatGPT precisamente por consumir datos no autorizados; es decir, sin tener en cuenta el derecho de autor de ese medio de prensa, porque a la IA se la alimenta con artículos periodísticos, y hay información a diestra y siniestra que tiene sus derechos. Ello tiene que ver también con otro problema, para el cual somos muy vulnerables, que es el asunto de la credulidad, que se relaciona con lo que hablaba sobre los criterios de juicio: lo dijo la máquina, entonces es verdad. Eso ya es un primer punto de vulnerabilidad de que hablaba; pero bueno, ¿esto que me está diciendo qué lo respalda?, puede decir el pensamiento crítico entrenado. Esto es un llamado a los otros profesores, a los divulgadores de ciencia, para lograr consumir críticamente lo que nos está diciendo la inteligencia artificial.
¿Qué escenarios pueden estar amenazados? Como siempre en toda revolución científico-técnica, un escenario amenazado no deja de ser un escenario; la mayor preocupación es que el ser humano pueda ser desplazado de una labor que ahora puede ser sustituida, o ya está siendo sustituida por la máquina. Un ejemplo es el caso de la traducción que es un escenario completamente amenazado, porque la inteligencia artificial generativa ya está superando al humano en rapidez, en exactitud, en un conocimiento global del vocabulario técnico de lo que se está traduciendo y, además, puede incluso dar la voz de la persona que está hablando en otro idioma.
Eso no lo puede hacer el ser humano, y tiene capacidades extras de que este carece. La atención al cliente, por ejemplo. Cualquier servicio de este tipo y la cartera de negocios de una empresa como OpenAI, están basados en que el cliente genera su propio sistema de chatbot, Una empresa que va a vender turismo para Viñales sencillamente se la entrena con información, y puede superar perfectamente a un sistema de atención al cliente donde el humano es el que está atrás.
Y en la educación, pobre del profesor que en este momento crea que puede vivir a espaldas de lo que la inteligencia artificial está haciendo en esa rama. El estudiante está leyendo la respuesta, está cuestionando al maestro todo el tiempo, está tirándolo contra lo que dice la máquina, y el profesor tiene que tener los pantalones bien puestos para sostener una afirmación y decirle: «Esto que te dijo la inteligencia artificial está equivocado», o «Revísalo y estudia bien ese tema porque no es así», o qué ocurre cuando pone una tarea para realizar en la casa y el estudiante trae las respuestas por la IA. En un concurso que acabamos de hacer, todas las respuestas, o dos de ellas, de dos concursantes están hechas con inteligencia artificial; se sabe por la forma en que están redactadas. Entonces, no es un escenario hipotético, teórico. Quien esté trabajando en esos escenarios «amenazados» sabe que estoy hablando de algo concreto que está sucediendo y, por lo tanto, nos entrenamos en cómo dialogamos, cómo hacemos mejores evaluaciones. El profesor había descansado, durante mucho tiempo, en una evaluación donde uno pregunta, pero ahora tiene que hacer una evaluación que pueda pasar la prueba de que no haya respuesta, o que sepa si el alumno la responde con inteligencia artificial. Todo cambia, este escenario cambia nuestra relación no solo con la máquina, sino con la sociedad.
Rafael Hernández: ¿Cómo se regulan los usos de la inteligencia artificial?, ¿cómo hacerlo de una manera más eficaz de lo que lo ha hecho la energía atómica? Voy a usar los ejemplos de Yoss, los acuerdos sobre proliferación de armamentos, sobre protección del medioambiente, etcétera ¿Cuál sería la base para un enfoque realista relacionado con regular, si es que ustedes piensan que tiene sentido regular, la inteligencia artificial?
Yoss: Recientemente supe que las editoriales de toda Europa firmaron un convenio para prohibir la publicación de libros ilustrados con inteligencia artificial, lo cual parece una vez más la actitud del papa Inocencio II: «No lo permitiremos, no pasarán», y ya saben lo que pasó, pasaron por encima de la Pasionaria y de todos los demás de la Guerra Civil Española, pero a veces se olvida de que Europa, lamentablemente, aunque tenga un gran peso en la cultura del mundo, a nivel demográfico y económico es apenas una motica de polvo. Si Europa no lo hace, pero lo hace toda Asia, incluidos China, Japón, y los pequeños tigres —las dos Corea, Singapur, Taiwán, India—, y lo hacen los Estados Unidos, Brasil y Canadá. Europa se va a ver forzada a aceptar o al menos a no prohibir las inteligencias artificiales como ilustradoras.
Creo que tratar de impedir el paso del progreso con normativas, pararse delante de la locomotora porque dicen: «No nos quitará el trabajo a los carreteros», es absurdo generalmente; el movimiento ludita fracasó, destruir las máquinas no era la manera de luchar contra el capitalismo; a la larga las inteligencias artificiales controlarán otras inteligencias artificiales, y habrá que aceptarlas como una herramienta más, en todo.
Hace pocos años había un montón de gente que vivía de generar contenidos en internet, una empresa le solicitaba: «Estos son los zapatos que quiero vender, escríbeme doscientas palabras sobre esto». El tipo, sin tener la menor idea, se decía: zapatos, se usan en los pies, deben ser de cuero o quizás brillen; y escribía algo. Una inteligencia artificial hace eso en cuestión de segundos, y mejor.
Igual pasa con los traductores, que todavía están en perfeccionamiento, y esos maravillosos intérpretes que hemos visto —como un diplomático chino a quien alguien le está hablando en español por el teléfono, y por otro lado le sale en chino, y viceversa— no son perfectos, los textos redactados con inteligencia artificial a veces cometen errores, a veces no pasan por lo que se llama la prueba del doble ciego, ni por el revisado por pares, y por lo tanto hay textos equivocados. Alejandro me estaba enseñando unos extractos biográficos, el suyo, el de Bruno Henríquez y el mío, sacados por inteligencia artificial. Según su respuesta, Bruno es un famoso futbolista y yo un cantante de rap. Me quitaron cuatro años de vida, me hicieron nacer en 1973 en vez de en el 69; no lo agradezco, me siento muy orgulloso de cada año que he vivido, no quiero que me los quiten.
Creo que controlar las inteligencias artificiales es, de alguna manera, ayudar a perfeccionarlas. Generalmente, cuando se desarrolla la carrera armamentista, cada vez que alguien lanza un arma, otro lanza una mejor, para enfrentársele; cuando se crearon las armas de hierro, aparecieron los escudos de hierro; cuando aparecieron los tanques, surgieron los Rocket Propelled Granades (RPG), que destruyen a los tanques.
Creo que con la inteligencia artificial poco a poco las aguas cogerán su nivel; dentro de unos pocos años cualquier dibujante podrá decir: «ChatGPT, quiero hacer una ilustración para El corsario negro, proponme cuarenta ilustraciones» y verá cuarenta ilustraciones. «Quiero una del corsario negro saltando al abordaje de la cubierta del Rayo», y ahí el ChatGPT pondrá al Rayo, y de todos esos esbozos tomará tres o cuatro y empezará a perfeccionarlos; por lo tanto, será más competitivo que el dibujante que se cierre en banda y diga: «Nunca usaré inteligencia artificial».
Por otro lado, es muy probable que ocurra lo que ya está pasando: algunos ilustradores y pintores, que trabajaban hasta hace poco con inteligencia artificial, de pronto han regresado a los pinceles, el óleo, la tempera, porque están mostrando casi como un sello de fábrica: «Esto fue hecho sin ningún tipo de ayuda digital». Creo que lo que se está produciendo es una suerte de nostalgia tecnológica. Estamos regresando a los discos de vinilo, en los que cuales no se podía, como ahora, alterar digitalmente la voz, eliminar los ruidos, a producir el autotune, que ha hecho creer a un montón de cantantes de reguetón que saben cantar y que son músicos.
Creo que estamos llegando a un momento de lo que se puede llamar una singularidad tecnológica, se hablaba de ella para cuando la inteligencia artificial se hiciera autoconsciente, pero ha llegado y, como suele ocurrir, nadie avisa; no es que los dinosaurios un día se levantaron y dijeron: «¿Saben?, hoy nos toca extinguirnos»; creo que estamos viviendo ese momento, y como también suele ocurrir con los momentos cuando ya los estamos viviendo, nadie sabe a dónde irá a parar.
Roberto Corral: Yo no estoy en la posición del catastrofismo, que la inteligencia artificial va a tomar el poder al estilo película de Schwarzenegger. Eso no va a ocurrir jamás; esa idea de autoconciencia no es posible, y en esto soy absoluto. El otro extremo es que la IA lo va a resolver todo, va a ser la maravilla. Eso tampoco es posible. Al ser humano no se le puede sustituir el deseo, la intención, la voluntad, como decía Yoss.
Otro punto interesante es que la inteligencia emocional junto con otras cosas —yo prefiero decir tecnologías de la inteligencia— sí va a cambiar el mundo en que vivimos de una manera que a veces parece sutil, pero que no lo es. En primer lugar, el mundo es complejo, no está hecho de porciones perfectas; no es un juego de ajedrez donde podemos calcular todas las posibilidades; En segundo, tenemos que manejar la incertidumbre, y eso no lo puede hacer ninguna inteligencia artificial, solo los seres humanos. Por otra parte, está la veracidad del conocimiento; tenemos que ir pensando en que tal vez nuestros conocimientos son más relativos de lo que pensamos, y debemos pensar ese mundo de otra manera.
El cambio se está produciendo en estos momentos. Nuestros niños ya son otra generación, otro mundo, no somos nosotros. Los que no mantienen una nueva comunicación con sus hijos, deben estar sorprendidos de la velocidad con que están aplicando las tecnologías de la inteligencia y cómo van a cambiar el mundo de manera que ninguno de nosotros podemos imaginar.
Bruno Henríquez: Se habla del control de las IA. Hay varias cosas interesantes; la ciencia ficción ya había pasado por esto; estamos viviendo en el siglo donde se desarrollaban los argumentos de ella en el siglo pasado y a principios de actual.
Para controlar la inteligencia artificial hay dos niveles de entrada, uno intrínseco, en su propio funcionamiento, cómo la vamos a programar, a crearle cosas internas. De ello había un ligero esbozo en las leyes de la robótica. Alguien me dijo una vez que los robots no pueden identificar a un ser humano. Y sí pueden; por ejemplo, las armas ya identifican si un individuo es o no enemigo, si es hombre o mujer, a qué distancia está, si se debe disparar o no. Esa es una de las cosas; otra es todo el conglomerado de cosas que surge a partir de la ética para poder ser utilizado lo que es interno a la inteligencia artificial, porque si no deslindamos esas dos cosas es como si estuviéramos viendo solo el comportamiento externo de las personas y no lo que le va pasando por dentro. Si la inteligencia artificial se va desarrollando, y una de las esperanzas o temores es que se parezca cada vez a nosotros, eso va a seguir evolucionando. Yo siempre pienso en cómo va a ser eso cien o doscientos años en el futuro, y siempre lo veo desde el punto de vista de la esperanza, que uno tiene como una ventaja, pero después de conocer cómo está el mundo, y ver las cosas que están pasando, creo que puede pasar cualquier otra cosa.
Y está lo otro, la singularidad. Qué va a pasar cuando las máquinas sean más inteligentes que los humanos. Solo hay que pensar que las personas que gobiernan en el mundo actual no son las más inteligentes; no voy a poner ejemplos, todos los conocemos, de derecha, izquierda, centro, progresistas, conservadores. Recuerdo aquella película, Idiocracia. Es lo que hay, entonces nosotros vamos a ese mundo que nos brinda una nueva incertidumbre. Lo que yo agradezco es haber vivido en esta época. Como decía el filósofo, «te deseo que vivas épocas interesantes».
Luciano García: Son problemas éticos los que afrontamos en estos momentos con las inteligencias artificiales; estamos por que sean confiables, y explicables. Hay varias definiciones dadas por la Unesco, por la Comisión Europea, etc. En los Estados Unidos acaban de rubricar una en la Casa Blanca. Realmente se trata de establecer alguna forma, de crear estos sistemas, mediante el cual podamos evitar, hasta cierto punto, estos sesgos. Por ejemplo, hay toda una serie de trabajos sobre estos sistemas de IA débiles. Yo tengo una bibliografía que alcanza los cien libros ya, de los problemas de ética, y hay uno muy interesante respecto al tema que se ha convertido en fundamental, que tiene que ir desde los que nos dedicamos a hacer IA, hasta los gobernantes de un país, pasando por la ley. Hay problemas de tipo jurídico que tienen que estar ahí también, y hay todo un conglomerado que tiene que trabajar de una manera unificada en este problema.
Si vamos a hablar de la IA fuerte, o general, y la que tiene que ver con estos momentos en los cuales llegaremos a la singularidad tecnológica, planteada, fundamentalmente, nada menos, por un científico de la computación, que además es un hombre que se dedica también a este tipo de reflexiones acerca de lo que se ha estado llamando el futurismo, y que ha dado lugar, por ejemplo, a que en estos momentos haya como siete u ocho formas de humanismo, transhumanismo, posthumanismo, tecnohumanismo, humanismo digital; varios, y muy importantes y podríamos estar hablando de cada una de estas tendencias actuales, porque se trata de especulaciones gratuitas, sino de una especulación fuerte, hecha por gente que sabe lo que está diciendo, como Kurzweil cuando se refirió a la singularidad tecnológica, dijo que va a haber un momento en que la explosión tecnológica a la cual vamos a asistir, realmente, va a crear una inmersión del ser humano en las máquinas, igual que lo que se dice con respecto a la Ilustración. Hay una segunda Ilustración, no solo una cuarta Revolución Industrial. Hay un libro de quinientas y pico de páginas, escrito por Steven Pinker, precisamente sobre este tema, de cómo debemos asistir a una nueva Ilustración.
Otro tema es cómo debemos trascender, más allá de nuestro cuerpo biológico, que limita nuestro futuro desarrollo, para hacer frente a estas super inteligencias. Es lo que plantea Nick Bostrom, en su libro Superinteligencia; y así por el estilo.
La ética tiene un papel importante en todo esto, y es lo que debemos tener también en consideración a la hora de seguir debatiendo acerca de este problema.
Roberto Corral: Quiero decir solo una cosa más. Aquí podemos estar debatiendo de ciencia, tecnología, innovación, ética, pero detrás de esto lo que está es el mercado. Lo que se juega en la inteligencia, no es la guerra, no son los robots. Es dinero; es quién vende más.
Rafael Hernández: La preocupación por regular la inteligencia artificial no es de una banda de luditas desde una cueva; es de una comisión del Congreso de los Estados Unidos, que son los que inventaron la libertad de comercio. La preocupación con que las armas no sean responsables de matar gente y de decidir a quiénes matan o no matan, que no es lo mismo que las armas puedan ser más perfectas, que un dron pueda entrar en un edificio en Afganistán y decidir a quién le tira y a quién no, sí tiene una enorme importancia porque hay un responsable de quien lanzó esa acción, y la máquina no es responsable de esa acción, por todo lo que se ha explicado aquí. Entonces, si los nazis hubieran tenido estas máquinas perfectas, los responsables de los hornos crematorios serían ellas, y no hubiera habido un tribunal de Nuremberg. O sea, que hay ciertas cosas en donde sí importa regular, si no importara que se usaran armas biológicas, todo el mundo las estaría usando. Si no importara cómo se puede mover la investigación sin hacer experimentos con seres humanos --porque hay un médico en Botsuana que está haciendo un experimento con un niño y un mono--, y no importa porque al final la tecnología se va a imponer y eso es irrelevante, realmente los médicos dirían: «Horror, claro que no». Que la tecnología sea muy importante, y que haya que usarla, y desarrollarla, y apoyarla, y fomentarla, no significa que no nos importe éticamente lo que hace un médico con un paciente, entonces no es que cualquier cosa sea cualquier cosa, y al final todo va a resultar de la manera en que va a resultar.
A mí me preocupa mucho que los escritores de ciencia ficción se queden sin trabajo; por eso le dije al ChatGPT: «Quiero un argumento para un filme de ciencia ficción que transcurra en Cuba», y me contestó:
En un futuro cercano Cuba se convierte en el epicentro de un avance tecnológico revolucionario, después de décadas de aislamiento, el país experimenta un renacimiento gracias a la llegada de una misteriosa compañía multinacional que establece su sede en La Habana; esta compañía introduce una tecnología de vanguardia que transforma la vida cotidiana de los cubanos, desde sistemas de energías renovables hasta avances en medicina y agricultura; sin embargo, conforme la tecnología se integra más profundamente en la sociedad cubana comienzan a surgir rumores sobre los verdaderos motivos detrás de la presencia de esta empresa y la naturaleza de sus innovaciones. Un joven ingeniero cubano llamado José Miguel, que trabaja para la compañía, descubre secretos oscuros que involucran experimentación genética y manipulación de la mente humana; a medida que el protagonista se sumerge más en la verdad detrás de la fachada de progreso, se ve envuelto en una lucha por la libertad y la autodeterminación de Cuba. Con la ayuda de un grupo de rebeldes clandestinos, el ingeniero se embarca en una peligrosa misión para desenmascarar a la compañía y liberar a su país de su influencia opresiva, enfrentándose a drones de vigilancia, soldados cibernéticamente mejorados, y la implacable inteligencia artificial, que controla todo. En última instancia, la lucha por el futuro de Cuba se convierte en una batalla por el destino de la humanidad en un mundo cada vez más dominado por la tecnología.
Hasta políticamente es correcto esto, hasta tiene parámetros ideológicamente delimitados, parecería que no, pero sí.
Muchísimas gracias a todos.
Programas Último Jueves
Más populares
YOUTUBE
TWITTER
FACEBOOK
Temas es una publicación trimestral, dedicada a la teoría y el análisis de los problemas de la cultura, la ideología y la sociedad contemporánea.
(+53) 7-838-3010(+53) 7-830-4759
temas@icaic.cu
Calle 23 #1109 e/ 8 y 10. Plaza de la Revolución. CP:10400. La Habana. Cuba