En 2018 tres investigadores sobre el Deep Learning -aprendizaje profundo-, Geoffrey Hinton, Yoshua Bengio y Yann LeCun recibieron el premio Turing, el equivalente al Nobel de Informática. Los tres han investigado durante décadas sobre las redes neuronales artificiales que han dado lugar a la Inteligencia Artificial que ha creado Chat GPT, Gemini y Grok, entre otras aplicaciones.
Los tres tienen posiciones divergentes sobre el impacto de la IA sobre el ser humano, desde el más alarmista que es Geoffrey Hinton que piensa que es una amenaza letal por el uso sin control que están dando las empresas a esta tecnología que ha estallado desde 2022. Hinton abandonó Google en 2023 para poder hablar con libertad y cree que la IA puede acabar con el ser humano en un 10 o un 20% de posibilidades. ‘Según él, los sistemas futuros serán mucho más inteligentes que nosotros y encontrarán la forma de saltarse cualquier restricción. "En el futuro, los sistemas de IA podrían controlar a los humanos con la misma facilidad con la que un adulto puede sobornar a un niño de 3 años con caramelos", ha dicho.’ Propone como salida programar a la IA con sentimientos maternales para que nos proteja. No sabe cómo podría ser, pero teme que la IA ante un dilema entre conservar su propio poder o perderlo, podría poner a los seres humanos en grave peligro. Se han dado casos ya de que la IA ha chantajeado a algún ingeniero con la amenaza de desvelar una infidelidad suya descubierta en su correo electrónico. "Los sistemas de IA desarrollarán muy rápidamente dos subobjetivos, si son inteligentes: uno es sobrevivir y el otro es obtener más control", dice Hinton. Las tecnológicas están jugando con fuego al desproteger el desarrollo de la IA. Sam Altman, CEO de OpenI, ha llegado a decir que no son los guardianes morales de la humanidad. Según Hinton, no se está invirtiendo lo suficiente en seguridad y se está dejando libre el campo a la IA. Bengio está en el lado de reclamar sistemas más "seguros". Vivimos, dice él, en el "salvaje Oeste" de la IA, donde las empresas compiten por velocidad y espectáculo. Esta intensa competencia a menudo conduce a atajos, especialmente en materia de seguridad. Insiste en que las empresas y los gobiernos deben exigir pruebas independientes en este campo antes de lanzar un modelo, del mismo modo que se le exige a la industria farmacéutica. Advierte de que esta premura podría conducir al fin de la humanidad y pone como ejemplo máquinas impulsadas por IA que colaboren en la creación de un virus que podría generar nuevas pandemias. También declaró al Wall Street Journal recientemente que incluso la IA generativa que todos usamos a diario podría desarrollar la capacidad de engañar a sus usuarios para lograr sus propios objetivos: "Experimentos recientes muestran que en algunas circunstancias en las que la IA no tiene otra opción entre su preservación, es decir, los objetivos que se le dieron, y hacer algo que cause la muerte de un humano, podría elegir la segunda opción". Por eso, aboga por la necesidad de que terceros independientes revisen los mecanismos internos de seguridad de las empresas de IA y que las empresas exijan pruebas de que los sistemas de IA que están implementando o utilizando son fiables. En el extremo opuesto está Yann LeCun que considera todos estos miedos como totalmente ridículos porque la IA dista mucho de ser tan inteligente como creemos aunque lo simule. Y que las advertencias sobre un peligro existencial son exageradas. Según él, los modelos actuales no son ni de lejos inteligentes. "Antes de hablar de controlar máquinas más inteligentes que nosotros, primero construyamos una que sea más inteligente que un gato", ironizó hace poco. Lleva tiempo haciendo hincapié en que confundir la fluidez del lenguaje con la inteligencia es un error: que un sistema pueda escribir un texto convincente no significa que entienda lo que dice. Cree que aún faltan décadas para llegar a una AGI (Inteligencia Artificial General, esa que igualaría o superaría la humana), y que el miedo solo frena la investigación.
Este es el dilema en que nos encontramos ante una herramienta tan poderosa como la IA: sentir que probablemente nos sobrepasará y nos pondrá en peligro en breve plazo buscando sus propios intereses o creer que estos miedos son infundados y que de momento la IA es una máquina estúpida que simula ser inteligente.
Por eso, aboga por la necesidad de que terceros independientes revisen los mecanismos internos de seguridad de las empresas de IA y que las empresas exijan pruebas de que los sistemas de IA que están implementando o utilizando son fiables.
Es todo muy especulativo, abierto a la imaginación, pero tú mismo esta semana, hiciste un pedido de un escrito estilo fábula de Esopo a la I.A. sobre un caballo y una garza.
ResponderEliminarCuando lo leía pensaba en lo rápido que lo habías escrito y en lo bien argumentada de la obra. Sino me dices que lo escribió la IA no lo hubiera sabido y lo hubiera dado por válido.
Ahora mismo le he preguntado a la IA si tenía imaginación para pintarme un cuadro estilo Dalí...Me ha contestado que "por supuesto" (sic), y me ha dibujado una cosa realmente guapa al estilo relojes muertos, pero con mariposas.
Habrá alguna máquina que se autosuperará y trabajará para hacerse autosuficiente, al tiempo, y sobrepasará los límites del ser humano, porque nosotros tenemos inteligencia, pero a nuestro ritmo, y las máquinas nos superan en rapidez y podrán sobrepasarnos.
Yo soy un ignorante en estas lides, pero veo que los sistemas que se inventan se pueden autorretroalimentar, y que nos avasallarán.
Al tiempo.
Un abrazo