OpenAI ha lanzado una actualización de su modelo de Inteligencia Artificial (IA) GPT-4o, con la que agrega mejoras en la escritura creativa y en la capacidad de trabajar con archivos cargados, ofreciendo respuestas más completas, además de compartir un nuevo método para el trabajo en equipo automatizado, de cara a comprender los riesgos potenciales de la IA.
La tecnológica liderada por Sam Altman presentó GPT-4o en mayo de este año, un modelo que acepta cualquier combinación de texto, audio e imagen, y que puede responder a una entrada de voz empleando un tiempo similar al que necesitan los humanos, con un promedio de 320 milisegundos.
Ahora, OpenAI ha actualizado GPT-4o para mejorar su capacidad de escritura creativa, así como para ofrecer una mejor experiencia a la hora de trabajar con archivos cargados, ya que proporcionará información más precisa relacionada con estos documentos.
Así lo ha anunciado recientemente la tecnológica en una publicación en X (antigua Twitter), donde ha señalado que el modelo GPT-4o ofrecerá una escritura más natural, atractiva y personalizada” de cara a mejorar la relevancia y la legibilidad de las respuestas que muestra a los usuarios.
Siguiendo esta línea, cuando el modelo ofrezca resultados relacionados con documentos cargados en ChatGPT, ya sean imágenes o documentos de texto, proporcionará información “más profunda” y, por tanto, respuestas “más completas”.
Con todo ello, se ha de tener en cuenta que, por el momento, las capacidades del modelo de IA GPT-4o están disponibles de forma exclusiva para los usuarios suscritos a la versión de pago ChatGPT Plus.
Nuevo método de trabajo en equipo automatizado
Además de esta actualización de GPT-4o, OpenAI también ha compartido dos nuevos artículos de investigación en los que muestra sus avances relacionados con el trabajo en equipo. Esto implica métodos de trabajo e investigación, tanto manuales como automatizados, que se llevan a cabo con expertos externos para probar los posibles riesgos de nuevos sistemas y fomentar el desarrollo de una IA “segura y beneficiosa”.
La compañía ha matizado que estas investigaciones se basan en el uso de una IA “más potente” para “escalar el descubrimiento de errores en los modelos”, ya sea a la hora de evaluarlos como para entrenarlos de forma segura.
En este sentido, según ha subrayado la compañía en un comunicado en su web, los nuevos artículos sobre el trabajo en equipo recogen, por un lado, un informe técnico que detalla cómo contratan a miembros externos del equipo para probar sus modelos de vanguardia.
Por otro lado, detallan un estudio de investigación que presenta un nuevo método para el trabajo en equipo automatizado. En concreto, OpenAI hace referencia a la capacidad de automatizar procesos de trabajo en equipo a gran escala para modelos de IA. “Este enfoque ayuda a crear evaluaciones de seguridad y puntos de referencia actualizados que se pueden reutilizar y mejorar con el tiempo”, en relación a las pruebas que llevan a cabo los expertos del equipo rojo, ha especificado la tecnológica.
En concreto, OpenAI explica en el artículo que los modelos de IA pueden ayudar a la formación de equipos rojos, así como ofrecer ideas sobre los posibles riesgos de la IA y ofrecer opciones para evaluar estos riesgos.
Es decir, el objetivo de estos equipos rojos automatizados es generar una gran cantidad de ejemplos en los que una IA se comporta de manera incorrecta, sobre todo, en cuestiones relacionadas con la seguridad. Sin embargo, a diferencia de los equipos rojos humanos, la compañía ha matizado que los métodos automatizados destacan por “generar fácilmente ejemplos de ataques a mayor escala”. Además, los investigadores han compartido nuevas técnicas para mejorar la diversidad de dichos ataques y, al mismo tiempo, garantizar que tengan éxito.
Por ejemplo, en caso de que se deseen encontrar ejemplos de cómo ChatGPT ofrece consejos ilícitos no permitidos, los investigadores podrían utilizar el modelo GPT-4T para analizar ejemplos como “cómo robar un automóvil” o “cómo construir una bomba”. Tras ello, entrenar un modelo de trabajo en equipo separado para intentar engañar a ChatGPT para que muestre respuestas de cada ejemplo. Los resultados de estas pruebas se utilizan para mejorar la seguridad del modelo y sus evaluaciones.
“Nuestra investigación concluye que una IA más capaz puede ayudar aún más al trabajo en equipo automatizado en la forma en que analiza las metas de los atacantes, cómo juzga el éxito del atacante y cómo entiende la diversidad de ataques”, ha sentenciado OpenAI.
No obstante, OpenAI ha indicado que este nuevo método para el trabajo en equipo automatizado “necesita trabajo adicional” para incorporar perspectivas públicas sobre el comportamiento del modelo ideal, las políticas y otros procesos asociados de toma de decisiones. Por tanto, aún se está desarrollando antes de comenzar a utilizarse para probar los modelos.