Google ha actualizado su política de uso de inteligencia artificial generativa para permitir explícitamente su aplicación en áreas consideradas de "alto riesgo", siempre y cuando exista supervisión humana en el proceso. Esta modificación aclara las condiciones bajo las cuales los clientes pueden utilizar sus herramientas de IA para tomar decisiones automatizadas en sectores sensibles como la salud, el empleo o los seguros.
Nueva política de uso para áreas sensibles
Según la actualización de la Política de Uso Prohibido de IA Generativa publicada por Google, los clientes podrán emplear sus herramientas de IA para tomar "decisiones automatizadas" que pudieran tener un "impacto perjudicial material sobre los derechos individuales". La clave está en que estas aplicaciones deberán contar siempre con supervisión humana.
Un portavoz de Google aclaró a TechCrunch que "el requisito de supervisión humana siempre estuvo en nuestra política para todos los dominios de alto riesgo". La actualización busca principalmente reorganizar y explicitar mejor algunos ejemplos para mayor claridad de los usuarios.
Contraste con la competencia
La postura de Google contrasta con las políticas más restrictivas de sus principales competidores. OpenAI, por ejemplo, prohíbe el uso de sus servicios para decisiones automatizadas relacionadas con créditos, empleo, vivienda, educación, puntuación social y seguros. Por su parte, Anthropic permite el uso de su IA en áreas sensibles como derecho, seguros y salud, pero exige que sea bajo la supervisión de un "profesional cualificado" y requiere que los clientes revelen que están utilizando IA para este propósito.
Marco regulatorio y preocupaciones
Esta actualización llega en un momento de creciente escrutinio regulatorio sobre el uso de la IA en decisiones automatizadas. La Ley de IA de la Unión Europea establece que los sistemas de IA de alto riesgo, incluidos aquellos que toman decisiones individuales sobre crédito y empleo, enfrentarán la mayor supervisión. Los proveedores deberán registrarse en una base de datos, realizar gestión de calidad y riesgos, emplear supervisores humanos y reportar incidentes a las autoridades correspondientes.
Organizaciones como Human Rights Watch han expresado su preocupación especialmente por los sistemas de "puntuación social", advirtiendo que pueden amenazar el acceso al apoyo de la Seguridad Social, comprometer la privacidad y perfilar a las personas de manera prejuiciosa.
Regulaciones locales emergentes
En Estados Unidos, diferentes jurisdicciones están comenzando a regular el uso de la IA en decisiones automatizadas. Colorado ha aprobado recientemente una ley que obliga a los desarrolladores de IA a divulgar información sobre sistemas de "alto riesgo" y publicar declaraciones que resuman sus capacidades y limitaciones. Por su parte, la ciudad de Nueva York prohíbe a los empleadores utilizar herramientas automatizadas para evaluar candidatos en decisiones de empleo, a menos que la herramienta haya sido sometida a una auditoría de sesgo en el año anterior.
Los estudios han demostrado que la IA utilizada para tomar decisiones como la aprobación de créditos y solicitudes de hipotecas puede perpetuar la discriminación histórica, lo que subraya la importancia de la supervisión humana y los marcos regulatorios adecuados.