GPT-4, a diferencia de los modelos anteriores, tiene escancia multimodal. Esto quiere decir que además de admitir entradas de texto tiene la capacidad de analizar imágenes.

Los usuarios pueden subir una y pedirle a la IA que aporte detalles sobre ella o que identifique ciertos elementos que pueden pasar desapercibidos. Una de las características más notables del nuevo modelo es su rendimiento de «nivel humano» en algunos escenarios.

Según OpenAI, es capaz de aprobar un examen simulado de abogacía con un puntaje un 10% por encima de la media. Además, presenta respuestas más precisas y coherentes que los modelos anteriores. GPT-4 ha sido entrenado con un enorme dataset que le brinda la capacidad de dar respuesta a una enorme cantidad de temas.

También se puede utilizar como asistente de redacción para aprender idiomas, generar ideas o para aprender a programar.

Otra de las grandes diferencias, según OpenAI, es que GPT-3 tiene 12 capas y 175.000 millones de parámetros, mientras que GPT-4 puede tener 100 billones de parámetros nos lo cuenta Carlos Enrile, profesor y consultor en Internet e IA aplicados al comercio exterior.-