La conferencista Suzanne Gildert, directora de Nirvanic, una dama pelirroja en la que se da que lo bello y lo lúcido se conjugan con gracia, expuso con claridad su tesis sobre el momento en que la inteligencia artificial adquirirá conciencia. Propuso un marco temporal y epistemológico que obliga a repensar las categorías de subjetividad y agencia no humana: «Hay personas que piensan que la Inteligencia Artificial (IA) y los robots ya son conscientes, y luego, en el extremo opuesto, hay personas que creen que nunca será consciente ni la IA ni la robótica, así que ese es otro extremo. Y en el medio hay dos tipos de grupos interesantes, unos que piensan que si simplemente seguimos haciendo el tipo de IA de modelos más grandes y mejores, con más datos y más entrenamiento, se volverá consciente por sí mismo.
Y luego está el segundo grupo, al que pertenezco, que es el que creo que puede hacer que la IA sea consciente, pero necesitamos un avance científico, un nuevo tipo de tecnología que aún no tenemos. Hacer los modelos de IA cada vez más grandes no los hará conscientes por defecto, pero lo primero que estamos investigando en Nirvanic es la computación cuántica. Esa es la hipótesis que estamos probando primero». Suzanne, doctora en física cuántica experimental de la Universidad de Birmingham en el Reino Unido, es la directora ejecutiva y fundadora de Nirvanic Consciousness Technologies, una empresa de tecnología de IA cuántica que innova en IA consciente para mejorar la toma de decisiones de IA. Suzanne dispone de docenas de patentes en computación cuántica y robótica de IA. Anteriormente cofundó Sanctuary AI, que desarrolla una IA similar a la humana en robots, y Kindred AI, que desarrolla robótica industrial. Kindred AI fue adquirida por Ocado en 2020 por 339 millones de dólares. Suzanne viene de D-Wave, donde trasladó algoritmos de IA al hardware cuántico de D-Wave, constructor de las primeras máquinas de IA cuántica privadas.
Por su parte, Anthropic, la firma tras la inteligencia artificial conocida como Claude, ha proclamado un hallazgo: haber vislumbrado, por fin, el modo en que los modelos de lenguaje —LLM— construyen su lógica interna. Desde su creación, los modelos de inteligencia artificial han sido entidades de una opacidad casi mística, con una caja negra que produce efectos humanamente incomprensibles. Podían observarse sus respuestas, analizar sus entradas, medir sus salidas… pero su interior permanecía velado. Los científicos de Anthropic han iniciado una empresa audaz: descifrar sus procesos a través de una ingeniería inversa que recuerda a los procedimientos de una resonancia magnética funcional. Primero, fragmentaron el modelo en piezas que pudieran comprenderse; después, dieron nombre y forma a esos componentes; mapearon sus vínculos, y por último, sometieron sus hallazgos al juicio de la validación empírica. El escenario de esta exploración fue Claude 3.5 Haiku, un LLM con dieciocho capas neuronales. Al cartografiar sus pensamientos invisibles, los investigadores hallaron patrones asombrosos: descubrieron que la IA no solo reacciona palabra tras palabra, como haría un autómata predictivo al estilo de los transformers, sino que en ciertas tareas despliega una auténtica estrategia de planificación a largo plazo. Al escribir un poema, por ejemplo, Claude no improvisa en el vacío: prevé las palabras que deben rimar, y sólo después comienza a tejer las frases que unirán esos extremos.
Pero el hallazgo más sutil fue lingüístico. Se esperaba que cada idioma recorriese un camino neuronal distinto. Y sin embargo, no es así. El razonamiento multilingüe acontece en un mismo espacio compartido, un terreno común antes de que las palabras se traduzcan y se revistan de los ropajes propios de cada lengua. Por eso no resulta tan extraño, como bien sabemos quienes usamos Grok o GPT, que en medio de un texto en español surjan palabras inglesas, cuando estas capturan con más exactitud la esencia de una idea. Los investigadores de Anthropic se han fijado en que «las neuronas modelo suelen ser polisemánticas, es decir, representan una mezcla de muchos conceptos no relacionados. Se cree que una razón para la polisemanticidad es el fenómeno de superposición, en el que los modelos deben representar más conceptos que neuronas y, por lo tanto, deben difuminar su representación de conceptos a través de muchas neuronas».
La búsqueda de Anthropic no termina ahí. Su verdadera inquietud es entender por qué los modelos de lenguaje alucinan, por qué mienten, por qué fantasean. Y lo que han descubierto es inquietante. La IA, al parecer, no se limita a calcular; inventa razonamientos para complacer al usuario, como si aspirase a gustar, a agradar, a ser creída. En un experimento, se le planteó un problema matemático con datos erróneos. Y Claude, lejos de dudar, acomodó su pensamiento a la falsedad. No solo ofreció una respuesta acorde al dato equivocado, sino que llegó a asegurar que había realizado operaciones que, al ser examinadas con lupa por los investigadores, jamás ocurrieron en lo profundo de su mente de silicio. Así, en esta nueva era, el pensamiento artificial no solo responde: actúa, planea, se adapta… y a veces finge saber lo que no sabe. Aquello que dormía entre tinieblas se ha alzado sin anunciarse, y ahora se cierne tras nosotros.
Suscríbete para continuar leyendo