Inteligencia Artificial. Así es GPT-4, el modelo que sustituye al de ChatGPT y capaz de sacar buenas notas
La IA tiene «un rendimiento de nivel humano» en ámbitos profesionales y académicos y es capaz de interpretar las imágenes y el vídeo
BARCELONA
15/03/2023 06:00Actualizado a 15/03/2023 07:32
Ya está aquí GPT-4, el nuevo modelo de lenguaje con el que OpenAI reemplazará a GPT-3.5 el que ha alimentado desde finales de noviembre pasado a la asombrosa inteligencia artificial generativa de ChatGPT. La compañía ha explicado que GPT-4 es un modelo multimodal de gran tamaño que acepta entradas de imagen y texto, y emite salidas de texto y que, «si bien es menos capaz que los humanos en muchos escenarios del mundo real, muestra un rendimiento de nivel humano en diversas pruebas de referencia profesionales y académicas».
Según OpenAI, GPT-4 es capaz de aprobar un examen de abogacía simulado y obtener una puntuación en torno al 10% de los mejores examinados mientras que GPT-3.5, en las mismas pruebas, estaba en torno al 10% de los peores. La compañía de inteligencia artificial ha pasado seis entrenando a su modelo en ese tipo de pruebas en las que puede competir con los humanos.
«GPT-4 es más fiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5»
La compañía asegura que «en una conversación informal, la distinción entre GPT-3.5 y GPT-4 puede ser sutil. La diferencia sale a la luz cuando la complejidad de la tarea alcanza un umbral suficiente: GPT-4 es más fiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5». En los dos últimos años, OpenAI ha codiseñado junto con Azure de Microsoft un superordenador con el que poner a prueba sus modelos de lenguaje.
Las habilidades de GPT-4 son mayores que las de su predecesor. Por ejemplo, se le puede mostrar una imagen y pedirle algún tipo de respuesta relacionada con ella, como si tuviera visión. La respuesta es como si le hubieran planteado una entrada de texto. «Hemos evaluado el rendimiento de GPT-4 en un conjunto reducido de pruebas de visión académicas estándar -apunta OpenAI-. Sin embargo, estas cifras no reflejan plenamente el alcance de sus capacidades, ya que estamos descubriendo constantemente nuevas y emocionantes tareas que el modelo es capaz de abordar».
La empresa admite que su modelo de IA tiene también algunas limitaciones. «Sigue sin ser totalmente fiable», señala, «porque alucina con los hechos y comete errores de razonamiento». «Hay que tener mucho cuidado -advierte- al utilizar los resultados de los modelos lingüísticos, sobre todo en contextos de alto riesgo», y aplicar una revisión humana a los resultados.
GPT-4 no conoce nada antes de septiembre de 2021 y puede fallar en problemas difíciles «del mismo modo que lo hacen los humanos»
OpenAI ha explicado que GPT-4 no conoce acontecimientos posteriores a septiembre de 2021 y que puede responder de forma incorrecta: «A veces puede cometer simples errores de razonamiento que no parecen corresponderse con su competencia en tantos ámbitos, o ser demasiado crédulo al aceptar afirmaciones obviamente falsas de un usuario. Y a veces puede fallar en problemas difíciles del mismo modo que lo hacen los humanos, como introducir vulnerabilidades de seguridad en el código que produce».
Otra advertencia: «Las capacidades adicionales de GPT-4 conducen a nuevas superficies de riesgo». Para conocer su alcance, OpenAI contrató a más de 50 expertos en diversos riesgos, como la ciberseguridad, peligros biológicos o la seguridad internacional para que intentaran probar el modelo de forma adversaria. Las correcciones que se han hecho «aumentan la dificultad de provocar un mal comportamiento, pero hacerlo sigue siendo posible». La empresa reconoce que existen formas de generar respuestas que violen sus directrices de uso y que buscará alcanzar un elevado grado de fiabilidad.