“Los países desarrollados no apoyan la ciencia por beneficencia sino para resolver sus problemas y crear riqueza”, dice. “La tecnología de la Inteligencia Artificial (IA) de hoy es maravillosa pero poco eficiente y extraordinariamente cara”, señala. “Tenemos que ser conscientes de la cantidad de recursos y energía que involucra la IA”, alerta. “Hay que debatirlo de forma consciente porque no podemos quemar el planeta para poder hacerle una pregunta a CHAT GPT”, advierte. “Si Argentina atiende a la formación de recursos humanos, va a estar bien con la economía IA”, reflexiona.
“Se necesita un proyecto educativo de alto nivel como para alimentar un proyecto científico de esa naturaleza. Y eso requiere inversión, como todo”, sintetiza. “Es un éxito que los egresados de la UBA trabajen en empresas tecnológicas y tengan sus emprendimientos”, destaca. “Que haya muchas instituciones educativas que se alimenten de graduados de alta calidad también es un éxito”, sostiene. “Entrenar a la gente en este campo de la IA requiere plata”, alerta. “El universitario argentino no deja de sorprenderme: va con el cuchillo entre los dientes y se come vivo el mundo”, subraya. “Todavía no llegó la IA superior a la inteligencia humana, pero es inminente”, anticipa.
“Hay otros caminos para llegar a la IA que tal vez superen a la IA actual como las redes neuronales más biológicas”, explica. “En las universidades, guiada por la curiosidad científica, la ciencia se enfoca en otros diseños de IA”, anticipa. “Van a venir nuevas tecnologías superadoras de la actual IA”, asegura. “El mundo no está preparado para discusiones políticas como las que se abren ante la disrupción de la IA”, se preocupa. “El desarrollo de la investigación en una empresa está maravillosamente conducida a obtener el máximo rendimiento de alguna arquitectura de IA exitosa”, señala y compara: “Mientras tanto, en el mundo de la academia, con mucho más bajo perfil, se van explorando otros mecanismos”. “La investigación impulsada por la curiosidad es vista como una cuestión vocacional, pero es esencial para la generación de conocimiento científico”, concluye.
El destacado físico Gabriel Mindlin estuvo en La Repregunta. Mindlin es doctor en Física por la Drexel University, en Estados Unidos, y licenciado en Física por la Universidad Nacional de La Plata. Es profesor titular en el Departamento de Física de la Facultad de Ciencias Exactas de la Universidad de Buenos Aires (UBA) e investigador superior del CONICET. Fue profesor de la Universidad de Navarra e investigador asociado a la Universidad de California.
Su trabajo de investigación se enfoca en redes neuronales biológicas, dinámica no lineal, Inteligencia Artificial (IA), las aves y el aprendizaje del canto. Es el fundador del Laboratorio de Sistemas Dinámicos de la UBA, considerado uno de los centros de investigación más disruptivos del sistema científico argentino. Mindlin es una voz respetadísima tanto en el mundo académico como en Silicon Valley.
La revolución de la IA: ¿a punto de dar un nuevo salto? ¿Por qué es inminente la generación de una IA superior a la humana? La Argentina de Milei: ¿puede subirse o no a la economía de la IA? De Silicon Valley a la ciencia básica, ¿cuál es el rol de cada uno? El canto de los pájaros, ¿el camino a una IA superior? Gobierno y campo científico en IA, ¿desconectados? Mindlin hizo su análisis.
Aquí, la entrevista completa.
La revolución de la IA. ¿Un camino imparable? El rol de las placas de video y el desarrollo de la IA
-Se viene hablando de IA y del chat GPT. Luego de IA generativa y ahora, de Inteligencia Artificial General (AGI, por sus siglas en inglés). Primer ladrillo de esta conversación: ¿cómo podría explicar el salto que va de una a otra?
-Sin duda estamos ante el nacimiento de algo completamente distinto. Somos testigos privilegiados de ese cambio cualitativo. La IA tiene una historia muy larga. Desde los años ´50, se intenta que las máquinas generen respuestas o comportamientos o resuelvan problemas como los humanos. Es una búsqueda con altos y bajos. Este año, recibieron el Premio Nobel dos científicos (NdR: Geoffrey Hinton y John Hopfield) que estuvieron en el comienzo de la historia de una de las herramientas de IA, las redes neuronales. Su idea fue que la cognición iba a emerger de la materia a partir de emular algunas propiedades del cerebro.
-¿Las redes neuronales serían como la sinapsis del cerebro llevada a la computación en forma de redes?
-Tal cual. En el sistema nervioso de los animales existen células muy especializadas que se conectan entre sí y que constituyen los cerebros. Desde los años 50 se empieza a pensar que trocitos de memoria en un ordenador pueden comportarse como neuronas: se conectan entre sí y llevan a cabo, eventualmente, operaciones cognitivas. Al principio se pensó en escribir las reglas para que estas unidades resuelvan problemas y, por ejemplo, aprendan a jugar al ajedrez. Después se planteó otra posibilidad: no poner reglas sino que aprendan con ejemplos. Se apuntó a entrenar esa red para resolver problemas a partir de darle muchísimos ejemplos. Y, finalmente, se fueron diseñando, y esto es importante, arquitecturas fáciles de entrenar y así pudieran aprender. Eso es interesante porque esta IA es cualitativamente distinta a la inteligencia humana: cuando nazca, y pronto va a nacer una nueva IA, va a ser una inteligencia no humana con la que vamos a coexistir. Es decir, su arquitectura neuronal no es la misma que la nuestra. Está diseñada para ser entrenada fácilmente y, por lo tanto, está vagamente inspirada en parte del cerebro humano. Pero ha seguido desarrollos arquitectónicos que fueron adecuados para eso, para poder entrenarla.
-¿Esa es la IA que da lugar al Chat GPT?
-En la crisis de 2001, por cuestiones personales, tuve que ir a San Diego. Fui a trabajar a la Universidad de California en San Diego, donde trabajó, hasta hace muy poquito, uno de los Premios Nobel de este año, Hinton. En 1986, Hinton fue quien desarrolló el mecanismo para entrenar redes. Eran redes muy pequeñas. El tema había pasado de moda. Así que fui a un laboratorio de neurociencia computacional donde me decían: “redes neuronales es un tema muerto”. Se estaba esperando que se pudiera computar con enorme cantidad de unidades. Eso pasó gracias a la tecnología de las placas de video, que permitió tener muchos procesadores y empezar a hacer cálculos muy intensivos con más unidades, alimentándolos de más datos.
-Es decir que el desarrollo del hardware dio lugar a una nueva expansión de las redes neuronales.
-Temas que ya estaban resueltos desde el punto de vista teórico, pero un poco olvidados, empezaron a tomar impulso. En 2010, hubo una explosión de todo. De la mano de Google empezó el renacimiento de la IA. En los últimos tiempos no hackearon el mecanismo de la visión humana, sino el mecanismo del lenguaje. Cuando se hackeó el mecanismo del lenguaje, cuando se creó una arquitectura neuronal que pudiera establecer relaciones entre las palabras para emular el lenguaje, el tema explotó. Nos deslumbró a todos: empezamos a tener la oportunidad de charlar y de resolver problemas sencillos dialogando con una IA no humana. Le falta un poquito. Ahora todos estamos esperando el momento en que esa IA sea también autónoma.
-A ver si entiendo: hoy la IA es una inteligencia no humana pero limitada, que necesita ser alimentada con una cantidad de datos imposibles de imaginar y sobre eso descubre patrones y puede traducirlos a un lenguaje cotidiano. Ése es el gran salto tecnológico.
-Exactamente
-Pero no piensa nuevas cosas.
-No piensa en cosas nuevas. Hoy hay que preguntarle y darle indicaciones muy precisas de lo que querés que haga. Pasito a pasito puede establecer vínculos con información a la que, para nosotros, es muy difícil acceder. Y lo expresa muy bien.
-Por la cantidad de información que puede procesar, la IA nos supera. Pero no quiere decir que esté produciendo nuevos contenidos.
-Así es.
La nueva revolución de la IA. ¿Se viene la superior a la inteligencia humana? ¿Cuánto tardará en llegar?
-¿Qué implica el salto de escala de la AGI?
-La AGI apunta a que sea autónoma, que uno pueda dar, en una forma muy abstracta, una instrucción o un pedido de muy alto nivel y la AGI sepa cómo desenvolverse sola como para poder resolverlo. Por ejemplo, podría plantearle: cuando me jubile, quiero tener un emprendimiento. En función de lo que yo sé, ¿a qué podría dedicarme? Entonces, la AGI podría pensar, diseñar, generar una opción. Hoy, la IA todavía no puede hacer ese tipo de cosas.
-Según los debates que hay en Silicon Valley, esa posibilidad está cada vez más cerca. Cinco años, dicen algunos.
-Es muy probable. Está muy cerca esa posibilidad. Yo no me animo a ponerle un número de años, pero no me sorprendería que sea mucho antes de lo que uno se imagina.
-Llegado ese momento, entonces habrá una inteligencia no humana superior a la inteligencia humana en sentidos mucho más interesantes y ricos.
-Exactamente.
-La cuestión es: ¿llegó la singularidad, ese evento en el que la inteligencia no biológica es superior a la inteligencia humana?
-Pienso que no, pero es inminente. Y va a ser muy extraño porque nuestra inteligencia emerge de una arquitectura neuronal que surgió a partir de la evolución. Está muy preparada para lidiar con nuestra supervivencia, para vivir con nuestros cuerpos, interactuar con otros animales de nuestra especie, vivir en un entorno. La inteligencia no humana es una inteligencia que va a emerger de una arquitectura neuronal diseñada con otros fines, para minimizar o maximizar ciertos resultados. Será una arquitectura neuronal que no tiene que vivir con un cuerpo, que no tiene que tener compasión, que no tiene que lidiar con otros y que además, es entrenada a propósito, algo que fue buscado. Uno no le impone las reglas: no se le ponen demasiados parámetros. Se le muestran ejemplos y se espera que esta inteligencia saque sus propias conclusiones, extraiga patrones y en función de eso, tome decisiones. Es una inteligencia independiente: por construcción, tenemos poco control.
¿Apocalípticos o integrados? IA superior, ¿utopía optimista o futuro distópico?
-Ese poco control por construcción, por cómo está pensada y diseñada su arquitectura de manera profunda, despierta grandes temores y grandes optimismos. ¿Usted está del lado de los apocalípticos o de los integrados? Quiero decir: ¿usted ve un apocalipsis en relación a masas de seres humanos que quedarán obsoletos, o ve el riesgo de una inteligencia superior a la humana sin un sentido moral, por ejemplo? en línea con los riesgos distópicos que plantea, muchas veces, la ciencia ficción. ¿O ve la posibilidad de que la IA entre en un camino razonable que implique un cambio de autopista de progreso, muy distinta a la que venimos concibiendo?
-Por temperamento, tiendo a ser optimista. Además, soy una generación para la cual el futuro se veía más lindo que el presente. El futuro que yo imaginaba era mejor que el futuro que ven las generaciones presentes. Yo pensaba en Viaje a las estrellas, en sociedades sin conflicto. La experiencia histórica muestra que cada vez que hubo una nueva tecnología, nos asustamos y nos asustamos con motivo. Cuando llegaron los telares, nos asustamos y los quemaron porque pensaban que la gente iba a quedarse sin trabajo. Cuando llegó la radioactividad y la comprensión de la constitución de la materia, nos asustamos ante el poder de las bombas nucleares, y hubo que aprender a convivir con eso. Y cuando aprendimos a convivir con eso, no necesariamente fue apocalíptico. En relación a la IA, hay que tomárselo con muchísimo cuidado. Si ponemos muchas cosas en manos de la IA sin pensarlo, vamos a cometer grandes errores.
-¿Qué sería poner muchas cosas en manos de la IA?
-Lo llevo a un ejemplo muy sencillo. Hoy pedís un préstamo en el banco y vas a hablar con alguien: esa persona te dice sí o no, lo podés convencer, y podés hablar y podés apelar a sus criterios. Cuando la decisión de darte un préstamo esté dado por un programa que optimizó los parámetros para la mayor rentabilidad del banco, no vas a poder apelar esa decisión porque ni siquiera vas a poder saber si los criterios que utilizó el banco para llegar a sus conclusiones son justos o injustos. Uno de los problemas que tiene la IA es que no es muy interpretable: tenés que hacer muchos esfuerzos para interpretar cómo una red llega a una conclusión.
-¿Con “interpretar” se refiere a encontrar el motivo que la lleva a tomar una cierta decisión?
-Eso pasa porque vos no lo programaste. Vos no le dijiste: si esta persona no cumplió con un crédito y no tiene trabajo, no le des un crédito. Lo que alguien le dio es un montón de información y a partir de eso, la IA llega a un patrón. Pero además, cuando llega a ese patrón, tampoco permite interpretar por qué llegó a esa conclusión.
-Es decir que no tiene esa introspección necesaria como para dar la respuesta de por qué. Esto es así a esta altura del desarrollo de la IA. ¿La Inteligencia Artificial General (AGI) sí la tendrá?
-Depende: no necesariamente. Ésa no es una hipótesis necesaria. Ése es el tipo de cosas con las que vamos a tener que lidiar: ¿vamos a hacer responsable a la IA de las decisiones que toma o simplemente vamos a alimentarla con datos y aceptar pasivamente qué es lo que nos dé? Ahí hay un desafío para la humanidad, no para las máquinas.
De Elon Musk a la ciencia de la IA. De la generación de conocimiento a la economía de la IA
-Hay emprendedores destacados en Silicon Valley que ven su trabajo con interés y ven su carácter de científico con muchísimo respeto. Como científico, cuando escucha los debates que se dan en Silicon Valley, en ese mundo de negocios tecnológicos, entre estos gurúes con enormes egos como Elon Musk o Sam Altman, ¿qué conclusión saca en relación a las posibilidades optimistas del desarrollo de la IA? El año pasado, hubo una gran polémica y un enfrentamiento entre Musk y Altman en torno a Open AI. Nació como una organización non-profit, y luego se convierte en una empresa de una valuación totalmente fuera de rango que el mismo Musk denuncia: no invirtió todos sus millones, dice, para generar una empresa tan sesgada hacia el mundo de los negocios que solo contemple la rentabilidad como criterio de desarrollo de la IA. Ése es uno de los debates que se está dando: el de los riesgos existenciales que implica la IA cuando sólo se pone foco en la rentabilidad.
– Sí.
-¿Cómo es el diálogo entre ese mundo que tienen esos debates y el mundo científico? Con un científico como usted, por ejemplo, ¿hay diálogo? Y si lo hay, ¿cómo es?
-En general, cuando hay un éxito tan abrumador como el de estas empresas, no creo que estén pendientes de la opinión del mundo académico sobre este problema. El mundo académico está impulsado por curiosidades. Y desde el punto de vista de la ciencia, los problemas que tiene OpenAI, por ejemplo, son problemas que ya están resueltos: llevar una arquitectura neuronal a su máxima expresión y encontrar un modo de alimentarla para que funcione. Eso despegó de una manera alucinante. Sí creo que hay discusiones que lamentablemente llegan a un mundo que no está preparado para una discusión política del tipo de las que se abren ante la disrupción de una tecnología de esta naturaleza. Por ejemplo, es una tecnología extraordinariamente cara desde el punto de vista del consumo del insumo eléctrico, del insumo de materia que necesita para responder cualquier cosa. Eso la hace una tecnología poco eficiente: es maravillosa, pero poco eficiente. La sociedad debería mirar cómo se inserta esa tecnología en un mundo que está desafiado por problemas ambientales.
-Ése es uno de los debates que se está dando ahora: el desarrollo de la IA está un poco frenado porque las fuentes de energía empiezan a ser un problema. Se está hablando de la energía atómica como posible fuente de energía.
-Sí. Yo no tengo ningún problema con ese tipo de soluciones. Sí creo que hay que debatirlas en forma consciente. Es decir, ¿la sociedad quiere utilizar las IA para resolver cualquier problema y tenerlo en cualquier código? Entonces vamos a tener que aceptar que hay tecnologías que a veces nos parecen antipáticas porque si no, vamos a quemar el planeta para poder hacer una pregunta al Chat GPT. Es interesante que se piense en pequeños reactores nucleares. Pero tenemos que ser conscientes de la cantidad de recursos y energía que involucra esta tecnología. Esas son miradas globales: no son problemas que competan directamente al que está programando o desarrollando una empresa. La sociedad está un poco distraída respecto de todas las implicancias y los costos de esta fase de transición en el conocimiento.
Negocios tecnológicos versus ciencia. ¿Por qué la actual IA es poco eficiente? ¿Se viene una IA más biológica?
-Sobre el mundo de la IA y este desarrollo de las redes neuronales, hay distintas miradas: desde el mundo de los negocios, el mundo de la academia científica, el mundo de los gobiernos. Usted dice que las empresas tecnológicas trabajan con problemas científicos que el mundo de la ciencia ya resolvió de alguna manera: hay respuestas que ya conquistó. ¿Las preguntas vigentes son de implementación? ¿Se podría equiparar con el desarrollo de la energía atómica y la física de la energía atómica y la aplicación a la construcción efectiva de una bomba atómica que después es usada en una guerra? ¿El debate actual podría equipararse a ese momento? ¿Para qué se usa y qué consecuencias tiene?
-Sí, se puede pensar en esos términos. Puede ser que la IA u otro cambio cualitativo llegue cuando se pueda emular arquitecturas neuronales más biológicas. Es decir, hay otros caminos para llegar a IA que tal vez superen a la IA actual.
-¿Otros tipos de IA que ahorren insumos y esfuerzo?
-Exactamente.
-¿Y cómo sería eso?
-Las arquitecturas de IA que se están explorando implican un diseño que solamente es efectivo al momento de entrenar a la red. Pero ese diseño no reproduce la manera en que ocurren las cosas en la biología: en la biología neuronal, se conectan de otras maneras que son tal vez más difíciles, o que todavía no sabemos cómo hacer para entrenarlas.
-A ver si entiendo: en las redes biológicas, hay un niño que de pronto da un salto cualitativo, aprende y de golpe dice “mamá”. Algo sucedió, y no es que dispuso de millones de datos sino de un entorno hogareño que un día produce ese resultado.
-Exactamente, con algunos componentes de ese proceso que vienen pre programados en los genes. O como un ave, por ejemplo, cuando aprende a cantar. Me dedico a ese tema de aprendizaje. Estudiar cómo aprende un humano es bastante complejo pero hay modelos de animales más sencillos como el de las aves oscinas, que aprenden. Son unas 4 mil de las 10 mil especies que existen. Tienen su cerebro preparado para ser reprogramado con la experiencia y entonces, pueden aprender. Es un modelo de aprendizaje distinto que utiliza una arquitectura neuronal diferente. En las universidades, guiada por la curiosidad científica, la ciencia se preocupa por otros mecanismos y otras arquitecturas. Open AI es una arquitectura que se resolvió vía Hinton entre el ´86 y el ´96 con su backpropagation (NdelE: un algoritmo de IA usado para entrenar redes neuronales), y demás. Hubo una arquitectura particular, la llamada “transformers”, que fue particularmente útil para los lenguajes. Ahora se busca entrenarla con muchos datos y muchos procesadores.
-Es decir que el punto crítico de la IA en su formato actual o en las versiones que se puedan desarrollar en el futuro pasa por cómo aprenden, cómo se las entrena y cuál es el modelo de red neuronal: eso determina si se va a necesitar mucha cantidad de energía y una cantidad de datos enorme que no podemos imaginar. O, al contrario, si la cantidad de datos puede ser más limitada porque la arquitectura neuronal funcionará de otra manera.
-Exactamente. Por eso digo que el desarrollo de la investigación en una empresa está maravillosamente conducida a obtener el máximo rendimiento de alguna arquitectura exitosa. Mientras tanto, en el mundo de la academia, con mucho más bajo perfil, se van explorando otros mecanismos. Así se exploró este mismo mecanismo en el ´86 en la Universidad de California, en San Diego: había una persona con un pequeño ordenador haciendo una pequeña red de juguete, tratando de ver cómo se podía entrenar a ese ordenador, o cómo podía aprender. Van a venir nuevas tecnologías superadoras de la actual IA. Por eso soy un optimista nato.
-Es muy interesante: el camino que tomó la IA tal como lo conocemos hoy no es el único camino posible. Y en este momento, se están explorando esas nuevas posibilidades.
-Exacto.
La IA y el plan Milei. ¿Hay alineamiento entre el Gobierno y la ciencia argentina… o todo lo contrario?
-Aterricemos en la Argentina de Javier Milei. Es un Presidente que está muy en contacto con esa burbuja de Silicon Valley, con esas utopías y esas distopías que se manejan ahí, con la figura de Elon Musk. De la mano de Demian Reidel, también físico, del Instituto Balseiro en su caso, que se doctora en Economía en Estados Unidos, Milei sueña con que la Argentina se convierta en un polo de IA. Desde el corazón de uno de los centros de investigación en IA que hay en Argentina, como es la Facultad de Ciencias Exactas, la carrera de Física, en la UBA, ¿cómo se ve esa posibilidad de que efectivamente la Argentina se suba a esos desarrollos y aporte lo suyo?
-En principio, en todo salto tecnológico, lo mejor que le puede pasar a una población es que se adapte a esa tecnología y trate de estar entre los ganadores de la tecnología. Cuando la IA esté coexistiendo con nosotros, habrá gente que programe y otra que no. Los que programen la van a pasar mejor. Si uno va a ser protagonista de esta revolución, va a haber más trabajos calificados, y eso es bueno. ¿Cómo está parada la Argentina para eso? Si se atiende a la formación de recursos humanos, va a estar bien. Si se desatiende, no. Estas son compañías, empresas, emprendimientos que requieren mucho recurso humano bien entrenado y por lo tanto, hay que hacer una inversión en educación. Esa es una condición. Además, la Argentina tiene otras capacidades que también pueden ser oportunas: tiene energía, tiene la posibilidad de instalar equipamiento en lugares fríos. Posibilidades, tiene. Si se piensa bien, podrá ser positivo, pero hay que estar dispuestos a invertir en educación. No hay otra.
-Desde la facultad de Ciencias Exactas, su decano, Guillermo “Willy” Durán, plantea una escasez creciente de profesores que se van a la actividad privada, al mundo empresario, tanto a empresas consolidadas como a emprendimientos propios, a trabajar eventualmente como programadores, o a dar clases en universidades privadas. ¿Cuánto de ese capital cognitivo y cultural se está perdiendo en una institución como la UBA, necesario para formar las nuevas olas de profesionales requeridos por una Argentina subida al tren de la IA?
-En este momento, para la UBA es un desafío. Por un lado, el hecho de que sus egresados trabajen en empresas tecnológicas y en emprendimientos es un éxito. Lo veo como positivo. También es un éxito que haya muchas instituciones educativas que se alimenten de graduados de alta calidad. Pero la masividad de la Universidad de Buenos Aires y el acceso que le da a la educación a muchísima gente requeriría que no se pierdan todas sus posibilidades. Hay que tratar de cuidarlas. Eso requiere inversión.
-¿Inversión en aumento de sueldo, por ejemplo? Porque los sueldos del sector privado son extremadamente competitivos.
-Sin lugar a dudas, ésa es una de las variables que quedó muy retrasada. Pero también estoy pensando en infraestructura, en laboratorios: entrenar a la gente en estas cosas lleva dinero. No sólo está el campo de la programación sino también el de la internet de las cosas. Son necesarios laboratorios donde se integren el software con el hardware. Se necesita un proyecto educativo de alto nivel como para alimentar un proyecto científico de esa naturaleza. Y eso requiere inversión, como todo.
-¿Hay una contradicción entonces entre la restricción presupuestaria que tiene la universidad pública en general en la Argentina y el sueño de subir a la Argentina al camino de la economía de la IA?
-Hay que articular esos mundos de manera armónica. Es un proyecto muy razonable, pero hay que ser responsables y coherentes con ese desarrollo. La universidad pública le da acceso a una enorme cantidad de gente de una manera altamente eficiente: si mirás el rendimiento tanto en investigación y generación de conocimiento como en graduados de la universidad pública, ha sido una institución muy eficiente a lo largo de los años.
La economía de la IA y la restricción argentina. ¿Por qué es clave la educación y la curiosidad de la ciencia básica?
-¿Qué pasa con los estudiantes? La crisis educativa en la escuela primaria y en la escuela secundaria se ha vuelto endémica en la Argentina. Desde el año 2000, cuando empiezan las pruebas PISA, hay un registro muy frecuente. Lo mismo con Aprender y antes, con las ONE: todo indica que los aprendizajes están estancados en niveles muy bajos. En matemática, por ejemplo. Usted es un investigador y profesor con décadas de experiencia: ¿se nota eso en la posibilidad de enseñarle a los estudiantes? ¿Hay trabas en el ingreso a la hora de comprender la complejidad de lo que se les propone en Ciencias Exactas, por ejemplo?
-Sí, sobre todo en los primeros años. Cuando en la UBA se debatía si poner el CBC o no, yo pensaba que iba a ser una pérdida de tiempo y un alargamiento de las carreras. Ahora me doy cuenta de que ese año de transición es fundamental. La verdad es que el nivel en que la gran mayoría de los chicos sale de los colegios es muy bajo y la universidad demanda cierto grado de excelencia. Al menos ésa es la tradición de Exactas de la UBA: tiene un cierto nivel de excelencia. Por lo tanto, los estudiantes tienen que hacer la transición rápidamente. Ahora, hay algo en el estudiante argentino que no deja de sorprenderme. Lo mismo le pasa a mis colegas del mundo cuando llegan acá. Los estudiantes van con el cuchillo entre los dientes y se comen crudo el mundo. Son personas que rápidamente se despabilan. Están muy deseosos de conocimiento. Tienen una enorme iniciativa. Al menos los que llegan a la universidad y logran quedarse en la universidad, terminan formados de una manera increíble. Hace poco vino un colega de IBM que trabaja en IA aplicada a la psiquiatría. Estuvo en la Sociedad Argentina de Neurociencia, un ambiente donde la gente está muy preocupada por el tema de la financiación de la ciencia. Se quedó impresionado igual con el entusiasmo, la energía y la calidad del trabajo. Algo bueno está funcionando ahí. Pero bueno, requiere mucho esfuerzo y mucho esfuerzo de adaptación. Vemos esas crisis educativas: esa transición es más violenta de lo que era y es más difícil para los chicos.
-Usted comentaba a la posibilidad de que los profesionales que se forman en el mundo de la computación, o en el mundo de la física enfocada a ese mundo de redes neuronales y de IA, se sumen a proyectos de inversión que lleguen a la Argentina atraídos por distintas ventajas competitivas de este país. Le planteo otra opción: ¿qué pasa con la posibilidad de contribuir al crecimiento del conocimiento de la IA desde la ciencia argentina? Por ejemplo, en esos caminos alternativos de IA con otros modelos de aprendizaje de redes neuronales.
-Es una excelente pregunta. Explica el porqué tiene que haber investigadores de dedicación exclusiva en las universidades. Un investigador de dedicación exclusiva no solamente está dando clases sobre lo que se hace en ese momento, sino que tiene parte de su trabajo puesta en la investigación impulsada por la curiosidad. Muchas veces, la investigación impulsada por la curiosidad es vista como una cuestión vocacional. Pero es una parte esencial de la generación de conocimiento científico, y es una parte esencial del tipo de educación que se puede brindar. No genera ni provee la misma educación una persona que está generando conocimiento que una persona que está contándote lo que se está usando: es una formación completamente distinta.
-Es decir, que desde la política pública, un gobierno podría pensar dos opciones: la Argentina se sube a la economía de la IA para reproducir lo que ya se está haciendo o para insertarse en lo que ya está haciendo. O, el otro camino, la Argentina puede convertirse en pionera de vanguardia para encontrar nuevas modalidades disruptivas en relación al presente, que ya es disruptivo de por sí.
-Sí, tal cual. La diferencia grande entre los países desarrollados y subdesarrollados es que los países que se desarrollan realmente piensan en la investigación y a la generación de conocimiento como una herramienta para resolver sus problemas. Y como una herramienta en la que se apoyan para resolver los problemas. Y no como algo que hay que apoyar, como si fuera una cuestión de beneficencia o una cuestión cultural. La ciencia y la generación de conocimiento es realmente el instrumento con el cual se sale adelante, y se crea riqueza.
-A partir de la iniciativa de impulsar la economía argentina de la IA que lidera Reidel en el Gobierno, ¿ha habido contactos desde el Gobierno con la Facultad de Ciencias Exactas de la UBA y con los centros de investigación, por ejemplo, su laboratorio, que es tan de vanguardia?
-Conmigo en particular, no. No sé a nivel de la Facultad de Exactas, pero en mi caso particular, no.