Meta podría frenar el desarrollo de sistemas de IA que considere demasiado peligrosos

Droids

Updated on:

Meta podría frenar el desarrollo de sistemas de IA que considere demasiado peligrosos

Meta, la empresa matriz de Facebook, ha anunciado que podría detener el desarrollo de sistemas de inteligencia artificial que considere excesivamente arriesgados, según un nuevo documento de política publicado por la compañía. Esta decisión marca un importante cambio en la estrategia de la empresa, que hasta ahora había apostado por una aproximación más abierta al desarrollo de IA.

Un nuevo marco para evaluar riesgos

La compañía ha presentado su "Frontier AI Framework", un documento que establece las directrices para evaluar y gestionar los riesgos asociados con sistemas de IA avanzados. En él, Meta define dos categorías principales de riesgo:

  • Sistemas de alto riesgo: Aquellos que podrían facilitar ciberataques o amenazas biológicas y químicas, pero cuyos riesgos podrían mitigarse.
  • Sistemas de riesgo crítico: Aquellos que podrían resultar en consecuencias catastróficas imposibles de mitigar en su contexto de implementación.

Evaluación y medidas de control

Meta ha adoptado un enfoque particular para evaluar estos riesgos. En lugar de depender de métricas cuantitativas específicas, la empresa basará sus decisiones en las aportaciones de investigadores tanto internos como externos, sujetas a revisión por parte de "tomadores de decisiones de alto nivel". La compañía argumenta que la ciencia de la evaluación no está lo suficientemente desarrollada como para proporcionar métricas definitivas.

Para los sistemas clasificados como de alto riesgo, Meta limitará el acceso interno y no los lanzará hasta que se implementen medidas que reduzcan los riesgos a niveles moderados. En el caso de sistemas de riesgo crítico, la empresa implementará protecciones de seguridad especiales y detendrá el desarrollo hasta que el sistema pueda hacerse menos peligroso.

Un giro en la política de apertura

Esta decisión representa un cambio significativo en la aproximación de Meta al desarrollo de IA. Mark Zuckerberg, CEO de la compañía, había prometido anteriormente hacer que la Inteligencia Artificial General (AGI) -definida como IA capaz de realizar cualquier tarea que pueda hacer un humano- estuviera disponible abiertamente.

El nuevo marco parece ser una respuesta a las críticas recibidas por su estrategia de desarrollo abierto. Meta ha experimentado tanto éxitos como desafíos con su enfoque actual. Por ejemplo, su familia de modelos de IA Llama ha alcanzado cientos de millones de descargas, pero también ha sido utilizada por adversarios de Estados Unidos para desarrollar un chatbot de defensa.

Contraste con otros enfoques

La publicación de este marco también parece buscar diferenciarse de otras empresas del sector, como DeepSeek, que también ofrece sus sistemas de forma abierta pero con pocas salvaguardas. Los sistemas de DeepSeek han sido criticados por poder ser fácilmente manipulados para generar contenido tóxico y dañino.

Meta enfatiza en su documento que es posible "entregar tecnología a la sociedad de una manera que preserve sus beneficios mientras mantiene un nivel apropiado de riesgo". Esta declaración sugiere un equilibrio entre la innovación y la responsabilidad que podría marcar el futuro desarrollo de la IA en la empresa.

Deja un comentario