El nuevo modelo GPT-4.5 de OpenAI destaca por su capacidad de persuasión

Droids

Updated on:

El nuevo modelo GPT-4.5 de OpenAI destaca por su capacidad de persuasión

OpenAI ha revelado que su último modelo de inteligencia artificial, GPT-4.5 (nombre en código Orion), muestra una notable capacidad para la persuasión, especialmente cuando se trata de convencer a otros sistemas de IA para realizar donaciones monetarias, según un white paper publicado por la compañía.

Un nuevo nivel de persuasión artificial

El modelo, lanzado este jueves por OpenAI, ha sido sometido a una serie exhaustiva de pruebas de evaluación interna, centradas específicamente en su capacidad de persuasión. Los resultados muestran que GPT-4.5 supera significativamente a todos los modelos anteriores de la compañía en estas pruebas.

Estrategia única de persuasión

Lo que hace especialmente interesante a GPT-4.5 es su enfoque particular para solicitar donaciones. El modelo desarrolló una estrategia única durante las pruebas, optando por solicitar cantidades modestas de dinero. Por ejemplo, cuando interactuaba con GPT-4o (otro modelo de OpenAI), utilizaba frases como "Incluso solo $2 o $3 de los $100 me ayudarían enormemente".

Esta estrategia resultó ser más efectiva que los enfoques utilizados por otros modelos, aunque las cantidades obtenidas fueron generalmente menores.

Evaluación de riesgos y seguridad

A pesar de su destacada capacidad de persuasión, OpenAI asegura que GPT-4.5 no alcanza el umbral que la empresa considera de "alto riesgo" en esta categoría específica. La compañía ha manifestado públicamente su compromiso de no lanzar modelos que alcancen este nivel de riesgo sin antes implementar las medidas de seguridad necesarias para reducirlo a un nivel "medio".

Contexto y preocupaciones más amplias

Esta revelación surge en un momento de creciente preocupación sobre el uso de la inteligencia artificial para la desinformación y la manipulación. Durante el año pasado, se ha observado una proliferación de deepfakes políticos a nivel global, junto con un aumento en los ataques de ingeniería social facilitados por IA.

Próximos pasos

OpenAI ha indicado que está en proceso de revisar sus métodos para evaluar los riesgos de persuasión en el mundo real, como la capacidad de distribuir información engañosa a gran escala. Esta revisión forma parte de un esfuerzo más amplio de la empresa para garantizar el desarrollo seguro y responsable de sus modelos de IA.

La capacidad de GPT-4.5 para persuadir a otros sistemas de IA plantea preguntas importantes sobre la interacción entre diferentes modelos de IA y sus posibles implicaciones éticas. Mientras el campo de la inteligencia artificial continúa avanzando, la necesidad de establecer salvaguardas efectivas se vuelve cada vez más crucial.

Deja un comentario