Google está empleando el modelo de inteligencia artificial Claude, desarrollado por Anthropic, como punto de referencia para mejorar su propia IA Gemini, según ha revelado una investigación exclusiva de TechCrunch.
El proceso de evaluación
De acuerdo con correspondencia interna revisada por TechCrunch, los contratistas que trabajan en el desarrollo de Gemini están realizando comparaciones sistemáticas entre las respuestas generadas por ambos modelos de IA. Estos profesionales disponen de hasta 30 minutos por prompt para evaluar diversos aspectos de las respuestas, incluyendo su precisión, veracidad y nivel de detalle.
Hallazgos significativos
Durante el proceso de evaluación, los contratistas han identificado diferencias notables entre ambos sistemas. Una de las más significativas se relaciona con los protocolos de seguridad: Claude muestra configuraciones de seguridad más estrictas que Gemini. Por ejemplo, en situaciones donde se solicitaba simular ser otro asistente de IA, Claude se negaba a responder, mientras que Gemini proporcionaba respuestas que en algunos casos fueron marcadas como "violaciones graves de seguridad".
Posibles problemas legales
La situación plantea interrogantes sobre la legalidad de estas prácticas. Los términos de servicio comerciales de Anthropic prohíben explícitamente el uso de Claude para "construir productos o servicios competidores" o "entrenar modelos de IA competidores" sin la aprobación previa de la empresa.
Cuando TechCrunch contactó a Google para obtener aclaraciones sobre este punto, Shira McNamara, portavoz de Google DeepMind, evitó confirmar si la empresa había obtenido el permiso de Anthropic para este uso específico de Claude. Sin embargo, McNamara enfatizó que "de acuerdo con la práctica estándar de la industria, en algunos casos comparamos resultados de modelos como parte de nuestro proceso de evaluación", aunque negó que estuvieran utilizando los modelos de Anthropic para entrenar a Gemini.
Contexto más amplio
Esta revelación se produce en un momento interesante, considerando que Google es uno de los principales inversores en Anthropic. Además, la noticia llega apenas una semana después de que TechCrunch informara que los contratistas de Google están siendo obligados a evaluar respuestas de IA en áreas fuera de su experiencia, incluyendo temas sensibles como la atención médica.
Implicaciones para la industria
Esta situación pone de manifiesto los desafíos éticos y legales que enfrenta la industria de la IA en su búsqueda por desarrollar modelos más avanzados. La práctica de comparar resultados entre diferentes sistemas es común en el sector, pero generalmente se realiza a través de evaluaciones comparativas estandarizadas, no mediante análisis detallados de las respuestas de los competidores.
El caso también resalta la compleja red de relaciones y competencia en la industria de la IA, donde las empresas pueden ser simultáneamente inversores, competidores y usuarios de los productos de otras compañías del sector.
La transparencia en estas prácticas y el respeto a los términos de servicio serán cruciales para mantener la confianza en el desarrollo de la inteligencia artificial, especialmente considerando el impacto cada vez mayor de estas tecnologías en nuestra sociedad.