OpenAI anuncia GPT-4, su modelo GPT de última generación

OpenAI anuncia GPT-4, su modelo GPT de última generación

IA abierta anunciado recientemente GPT-4, la próxima generación de su familia GPT de modelos de lenguaje extenso (LLM). GPT-4 puede aceptar entrada de texto e imagen y supera a los sistemas líderes en varios puntos de referencia de procesamiento de lenguaje natural (NLP). El modelo también obtuvo una puntuación en el percentil 90 en una simulación. examen de barra.

Presidente y cofundador de OpenAI, Greg Brockman demostró las capacidades del modelo en una transmisión en vivo reciente. El modelo se entrenó utilizando el mismo marco que el modelo de la generación anterior, GPT-3.5, y al igual que ChatGPT, se refinó mediante el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF). Sin embargo, GPT-4 tiene varias mejoras con respecto a la generación anterior. Además de la capacidad de manejar la entrada de imágenes, la longitud del contexto predeterminado se ha duplicado de 4096 tokens a 8192. También hay una versión de acceso limitado que admite 32768 tokens, o unas 50 páginas de texto. El comportamiento de respuesta del modelo es más orientable a través de un aviso del sistema. El modelo también tiene menos alucinaciones que GPT-3.5, cuando se mide en puntos de referencia como Control de calidad veraz. Según OpenAI:

Esperamos que GPT-4 se convierta en una herramienta valiosa para mejorar la vida de las personas potenciando muchas aplicaciones. Todavía queda mucho trabajo por hacer, y esperamos mejorar este modelo a través de los esfuerzos colectivos de la comunidad al desarrollar, explorar y contribuir al modelo.

Aunque OpenAI no ha publicado detalles de la arquitectura del modelo o el conjunto de datos de entrenamiento, han publicado un informe técnico que muestra su resultados en varios puntos de referencia, así como una descripción general de alto nivel de sus esfuerzos para identificar y mitigar el riesgo de que el modelo produzca resultados dañinos. Dado que el entrenamiento completo del modelo requiere una potencia informática y un tiempo considerables, también desarrollaron técnicas para predecir el rendimiento del modelo final, dados los datos de rendimiento de modelos más pequeños. Según OpenAI, esto «mejorará las decisiones sobre alineación, seguridad e implementación».

Para ayudar a evaluar sus modelos, OpenAI tiene código abierto Calificaciones, un marco para la evaluación comparativa de los LLM. Ejemplos de referencia o calificaciones por lo general consisten en entradas rápidas en el LLM, así como las respuestas esperadas. El repositorio ya contiene varias suites de referencia, incluidas algunas implementaciones de referencias existentes, como MMLU, así como otras suites donde GPT-4 no funciona bien, como los acertijos lógicos. OpenAI dice que usarán el marco Evals para rastrear el rendimiento cuando se lancen nuevas versiones del modelo; también tienen la intención de utilizar el marco para ayudar a guiar su desarrollo futuro de las capacidades del modelo.

Múltiples usuarios discutido GPT-4 en un hilo en Hacker News. Un comentarista dijo:

Después de ver las demostraciones, confío en que la nueva duración del contexto tendrá el mayor impacto. La capacidad de volcar 32 000 tokens en un aviso (25 000 palabras) parece aumentar drásticamente la capacidad de razonamiento y la cantidad de casos de uso. Un médico puede poner el historial médico completo de un paciente en el aviso, un abogado el historial completo de un caso, etc. [percentage] las personas pueden retener 25.000 palabras de información en su cabeza, mientras la razonan y la manipulan de manera efectiva?

Sin embargo, varios otros usuarios señalaron que las aplicaciones médicas y legales requerirían mejores protecciones de privacidad de datos de OpenAI. Algunos han sugerido que un cifrado homomórfico esquema, donde el modelo GPT funciona en una entrada cifrada, podría ser una solución.

Los desarrolladores interesados ​​en usar el modelo pueden unirse a OpenAI lista de espera para conceder acceso.

READ  Cómo deshabilitar las vistas previas de video de reproducción automática en Amazon Prime Video

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *