Aquí tienes una versión con sinónimos: Operando y aún es un misterio para la mente humana.

Nueva York. Jueves 15. Mayo de 2025. A pesar de los esfuerzos realizados por las mentes más brillantes en el ámbito de la inteligencia artificial generativa, existe una inquietante confesión que resuena en la comunidad tecnológica: no comprenden plenamente cómo opera el cerebro digital que han ayudado a crear. Este fenómeno ha llevado a muchos, tanto dentro como fuera del campo, a cuestionar los fundamentos de las tecnologías que están modelando nuestro futuro.

Como se menciona en una reciente publicación en un ensayo en línea, «Aquellos que no están inmersos en el sector suelen sentirse sorprendidos y, a veces, algo molestos al darse cuenta de que no logramos entender lo que hemos construido». Este estado de confusión no es un fenómeno nuevo en la historia de la tecnología, sino que representa un patrón que se ha observado en diferentes épocas a lo largo del desarrollo tecnológico.

Los modelos de IA generativa, o GENE, son particularmente fascinantes, ya que tienen la capacidad de funcionar de manera autónoma, siguiendo un camino que ellos mismos trazan a partir de un conjunto inicial de instrucciones. Esto marca una notable diferencia en comparación con el software tradicional, que se limita a seguir rutas lógicas predefinidas por los desarrolladores.

En una serie de podcasts recientes, Chris Olah, quien formó parte de Deopenai, el creador de ChatGPT, antes de unirse a Anthropic, describió este fenómeno como un «andamiaje» en el que se desarrollan las inteligencias artificiales. Olah es reconocido como una autoridad en la interpretación de los modelos de IA, y su trabajo se centra en cómo se comportan y aprenden estas inteligencias artificiales a lo largo del tiempo.

Desde su creación hace aproximadamente una década, esta ciencia ha intentado desentrañar los mecanismos subyacentes que permiten a la inteligencia artificial generar respuestas a partir de preguntas complejas. Neel Nanda, un destacado investigador del Laboratorio Google DeepMind, señaló que «comprender en su totalidad un modelo de lenguaje extenso es una tarea increíblemente ambiciosa». Esta complejidad es comparable, según Nanda, a hacer un esfuerzo por entender completamente el cerebro humano, un reto que la neurociencia aún no ha podido alcanzar de manera satisfactoria.

El estudio de las mentes digitales se ha convertido en un área académica de creciente interés, especialmente porque se reconoce el inmenso potencial que tiene para hacer la inteligencia artificial más poderosa y efectiva. Mark Corvella, profesor de informática en la Universidad de Boston, comentó: «Los estudiantes se sienten muy atraídos por estos modelos porque perciben la influencia que pueden ejercer en el futuro».

En este contexto, Clove describe la interpretación mecánica como un enfoque que no solo implica examinar los resultados que produce la IA, sino también analizar las suposiciones que se hacen cuando dicha tecnología evalúa las consultas. «El modelo podría analizarse, adherirse al presupuesto que se lleva a cabo y tratar de entenderlos», agregó el profesor Corvella.

En el ámbito de la industria, se están utilizando herramientas avanzadas como Good Fire, un software diseñado para presentar los datos en formato de pasos estructurados, lo que facilita una mejor comprensión del procesamiento de la IA generativa y permite corregir los errores que surgen en el camino. Esta herramienta también busca mitigar el riesgo de que los modelos de IA sean manipulados o mal utilizados de alguna manera.

Eric Ho, director ejecutivo de Good Fire, expresó que «se siente como si la carrera por la creación de modelos extremadamente inteligentes estuviera avanzando rápidamente, mientras el mundo aún no comprenda completamente cómo funcionan». Asimismo, en su ensayo, AModei subraya que hay un optimismo renovado, sugiriendo que en un plazo de dos años, se podría desentrañar más de este complejo entramado.

Así como Anh Nguyen, profesor asociado en la Universidad de Auburn, comentó: «Acepto que para 2027 podríamos tener interpretaciones que revelen de manera confiable las intenciones dañinas y los sesgos existentes en los modelos». En las palabras de Clove, «a diferencia del cerebro humano», los investigadores tienen una ventaja porque pueden analizar «el equivalente a cualquier instrumento neuronal dentro de estos modelos».

«Todo lo que sucede dentro del modelo es completamente transparente», concluyó el académico. La comprensión de los mecanismos internos que operan en la IA generativa no solo podría revolucionar la forma en que esta tecnología es utilizada, sino que también abriría oportunidades en áreas críticas donde pequeños errores pueden tener consecuencias drásticas, como es el caso de la seguridad nacional, advirtió AModei.

Compartir :