El efecto de la IA en el cerebro

El reciente lanzamiento de Deep Seek y sus comparaciones con el ya cotidiano ChatGPT vuelven a poner en el centro de la discusión los beneficios y riesgos que conllevan las nuevas tecnologías, así como el impacto que tienen en nuestro cerebro y nuestras habilidades.

Muchos han planteado que el acceso instantáneo a la información y la dependencia de las nuevas tecnologías afectan negativamente algunas de nuestras funciones cognitivas.

Todos somos conscientes de que antes éramos capaces de memorizar muchos más números de teléfono de lo que lo somos ahora, ya que descansamos en la cada vez más amplia disponibilidad y capacidad de almacenamiento de nuestros aparatos inteligentes.

Un doctor de Harvard revela el alimento que se debe consumir para prevenir el cáncer de colon

Si bien estos cambios pueden generar inquietud, desde un punto de vista neurocientífico reflejan la asombrosa capacidad de adaptación del cerebro humano.

Cuando el ambiente requiere recordar números de teléfono u otra información, nuestro cerebro desarrolla sus capacidades para hacerlo. Cuando ya no lo requiere, “acomoda” sus funciones a lo que sí necesitamos, como aprender a usar nuevas formas de comunicación -como WhatsApp o Zoom– o a optimizar motores de búsqueda.

Sin embargo, no hay que confundir la utilidad de estas tecnologías con infalibilidad.

Su uso óptimo requiere del criterio humano.

Aplicaciones como Waze pueden indicarnos el camino a seguir, pero si notamos un error en sus indicaciones, debemos ser capaces de intervenir y hacer primar nuestro criterio; por ejemplo, si te sugiere seguir por una calle cerrada o tomar una en sentido contrario.

Confiamos en la IA porque suena convincente, pero eso no significa que siempre tenga razón

Este punto es especialmente relevante cuando hablamos de los modelos de inteligencia artificial generativa, como ChatGPT o Deep Seek, que no solo están lejos de ser infalibles, sino que además apelan a mecanismos del aprendizaje humano que nos llevan a confiar en ellas sin cuestionarlas y nos alejan muchas veces del pensamiento crítico tan necesario para su uso.

Estos modelos están diseñados para comprender y generar textos en lenguaje natural. Se entrenan con enormes cantidades de datos para predecir respuestas que resultan naturales al leerlas. Sin embargo, el hecho de que sus respuestas aparenten certeza no significa que sean correctas. Conocer sus limitaciones es clave para un uso efectivo, saludable y responsable.

Un artículo reciente publicado en la revista Science (Kidd & Birhane 2023) alerta, por ejemplo, sobre cómo estas herramientas presentan información en un tono seguro y convincente, lo que dificulta la identificación de errores o el cuestionamiento de sus respuestas.

El mismo artículo menciona lo complejo que es “corregir” en el cerebro humano la información falsa o sesgada que estos modelos pueden brindarnos y cómo esto puede ser particularmente peligroso en poblaciones vulnerables como los niños, que tienden a confiar en ellas sin cuestionamientos. También menciona cómo solemos tomar sus respuestas como objetivas, cuando las mismas comparten los sesgos de los datos con los que fueron alimentadas.

El oro de la juventud: la vitamina que elimina la papada y retrasa el envejecimiento

Las limitaciones de los modelos de inteligencia artificial generativa

Lo cierto es que, para obtener lo mejor de los modelos de IA generativa, hay que aprender a utilizarlos con criterio, ser capaces de cuestionar sus respuestas y entender su funcionamiento y sus limitaciones. Las siguientes son solo algunas de ellas:

  • No son infalibles, cometen errores y los multiplican.
  • Falta de razonamiento y comprensión real: Aunque parecen entender el lenguaje y tener una excelente capacidad de razonamiento, en realidad solo predicen respuestas basándose en patrones estadísticos. En este sentido, en una combinación determinada de palabras, la respuesta más probable puede ser una que no necesariamente sea la correcta.
  • Brinda información sesgada.

Además, no debemos olvidar que estos modelos requieren enormes cantidades de energía para su entrenamiento y funcionamiento. Aunque Deep Seek consumiría menos energía, sigue estando lejos de la eficiencia del cerebro humano, que con la energía equivalente a una bombita de luz es capaz de razonar, ser creativo y tomar conciencia de sus propios errores y sesgos, capacidades de las que la IA todavía carece.

Los modelos de inteligencia artificial aprenden con datos que pueden estar sesgados

Recomendaciones para un uso responsable

En resumen, las nuevas tecnologías –incluyendo los modelos de inteligencia artificial generativa– pueden potenciar las habilidades del cerebro humano si son utilizadas con precaución y criterio. Para lograrlo, es clave:

  • Mantener una actitud crítica y reflexiva sobre sus respuestas.
  • Familiarizarse con su funcionamiento para comprender sus limitaciones y detectar posibles errores y sesgos.
  • Verificar la información en fuentes confiables y no fiarse de la seguridad con que presentan sus respuestas.
  • Prestar atención a su impacto en la salud integral: que el uso de estas tecnologías no afecte el sueño, la alimentación, el ejercicio físico o las interacciones humanas, que son esenciales para el bienestar emocional y mental.

En síntesis, la clave para aprovechar estas tecnologías radica en comprenderlas y usarlas con criterio, recordando siempre que el cerebro humano sigue siendo la herramienta más poderosa con la que contamos.

*La autora es Coordinadora de Actividades de Acercamiento a la Comunidad de Fundación INECO.