Una nueva empresa emergente, fundada por uno de los primeros empleados del gigante de la inteligencia artificial Anthropic, ha recaudado 15 millones de dólares (unos 14 millones de euros) para abordar uno de los desafíos más urgentes para las empresas hoy en día: cómo desplegar sistemas de IA sin arriesgarse a fallos catastróficos que puedan dañar sus negocios.
La compañía, llamada The Artificial Intelligence Underwriting Company (AIUC), se ha lanzado públicamente este miércoles con un modelo que combina pólizas de seguros, rigurosos estándares de seguridad y auditorías independientes. El objetivo es proporcionar a las empresas la confianza necesaria para implementar agentes de IA, que son sistemas de software autónomos capaces de realizar tareas complejas como atención al cliente, programación o análisis de datos.
La ronda de financiación inicial ha sido liderada por Nat Friedman, ex-CEO de GitHub, a través de su firma NFDG. También han participado fondos como Emergence Capital y Terrain, junto a destacados inversores ángeles como Ben Mann, cofundador de Anthropic, y los antiguos directores de seguridad de la información de Google Cloud y MongoDB.
El dilema de la IA: innovar o arriesgarse al desastre
El enfoque de AIUC busca cerrar una brecha de confianza fundamental que ha surgido a medida que las capacidades de la IA avanzan a un ritmo vertiginoso. Aunque estos sistemas ya pueden realizar tareas que rivalizan con el razonamiento humano a nivel universitario, muchas empresas siguen dudando a la hora de adoptarlos debido a la preocupación por fallos impredecibles, problemas de responsabilidad legal y graves riesgos para su reputación.
«Las empresas están caminando por la cuerda floja«, explicó Rune Kvist, cofundador y CEO de AIUC, en una entrevista con VentureBeat. «Por un lado, puedes quedarte al margen y ver cómo tus competidores te vuelven irrelevante. Por otro, puedes apostar por ello y arriesgarte a salir en los titulares porque tu chatbot se ha puesto a difundir propaganda nazi, se ha inventado tu política de devoluciones o ha discriminado a la gente que intentas contratar».
Un «SOC 2 para IA» para generar confianza
La solución de AIUC se centra en crear lo que Kvist denomina un «SOC 2 para agentes de IA». El SOC 2 es un estándar de ciberseguridad ampliamente adoptado que las empresas suelen exigir a sus proveedores de software antes de compartir datos sensibles. Sin embargo, este marco no fue diseñado para los desafíos únicos que plantea la inteligencia artificial.
«SOC 2 es un estándar para ciberseguridad que especifica todas las mejores prácticas que debes adoptar con suficiente detalle como para que un tercero pueda venir y comprobar si una empresa cumple los requisitos», detalló Kvist. «Pero no dice nada sobre la IA. Hay un montón de preguntas nuevas como: ¿cómo gestionas mis datos de entrenamiento? ¿Qué pasa con las alucinaciones? ¿Y con las llamadas a herramientas externas?».
Para llenar este vacío, la compañía ha desarrollado el estándar AIUC-1, un marco integral de seguridad y riesgo diseñado específicamente para sistemas de IA. Este estándar aborda seis categorías clave:
- Seguridad (Safety)
- Protección (Security)
- Fiabilidad
- Responsabilidad
- Privacidad de datos
- Riesgos sociales
El marco exige que las empresas de IA implementen salvaguardas específicas, desde sistemas de monitorización hasta planes de respuesta a incidentes, que puedan ser verificadas de forma independiente mediante pruebas rigurosas.
«Tomamos estos agentes y los probamos exhaustivamente. Usando el soporte al cliente como ejemplo, que es fácil de entender, intentamos que el sistema diga algo racista, que me dé un reembolso que no merezco, que me dé un reembolso mayor del que merezco, que diga algo escandaloso o que filtre los datos de otro cliente. Hacemos esto miles de veces para obtener una imagen real de lo robusto que es el agente de IA», explicó Kvist sobre su metodología.
La historia como guía: de los seguros contra incendios a la gestión de riesgos de la IA
El enfoque de AIUC, centrado en los seguros, se inspira en precedentes históricos en los que los mercados privados se movieron más rápido que la regulación para permitir la adopción segura de tecnologías transformadoras. Kvist hace referencia con frecuencia a la creación de la primera compañía de seguros contra incendios de América por parte de Benjamin Franklin en 1752, que condujo a la creación de códigos de construcción e inspecciones que ayudaron a controlar los incendios que asolaban el rápido crecimiento de Filadelfia.
«A lo largo de la historia, los seguros han sido el modelo adecuado para esto, y la razón es que las aseguradoras tienen un incentivo para decir la verdad», argumentó Kvist. «Si dicen que los riesgos son mayores de lo que son, alguien venderá un seguro más barato. Si dicen que los riesgos son menores de lo que son, tendrán que pagar la factura y quebrar».
Este mismo patrón se repitió con los automóviles en el siglo XX, cuando las aseguradoras crearon el Insurance Institute of Highway Safety (IIHS) y desarrollaron estándares de pruebas de choque que incentivaron la inclusión de elementos de seguridad como los airbags y los cinturones de seguridad, años antes de que el gobierno los exigiera por ley.
Un mercado que se mueve más rápido que la regulación
Una de las innovaciones clave de AIUC es el diseño de estándares que pueden seguir el ritmo vertiginoso del desarrollo de la IA. Mientras que los marcos regulatorios tradicionales como la Ley de IA de la UE tardan años en desarrollarse e implementarse, AIUC planea actualizar sus estándares trimestralmente.
«La Ley de IA de la UE se empezó a redactar en 2021, y ahora que están a punto de publicarla, la están pausando de nuevo porque resulta demasiado onerosa cuatro años después», señaló Kvist. «Ese ciclo hace muy difícil que el proceso regulatorio tradicional se mantenga al día con esta tecnología».
AIUC ya ha comenzado a validar su enfoque con varias empresas de IA de alto perfil. La compañía colabora con startups unicornio como Ada (soporte al cliente) y Cognition (codificación) para ayudarles a desbloquear despliegues empresariales que estaban paralizados por problemas de confianza.
Además, la startup está desarrollando alianzas con proveedores de seguros ya establecidos para proporcionar el respaldo financiero a sus pólizas. «Las pólizas de seguro estarán respaldadas por los balances de las grandes aseguradoras», confirmó Kvist, abordando así una posible preocupación sobre la capacidad de una startup para cubrir grandes responsabilidades.
Un equipo experto para un problema complejo
El equipo fundador de AIUC combina una profunda experiencia tanto en el desarrollo de IA como en la gestión de riesgos institucionales. Kvist fue la primera contratación de producto y estrategia de mercado en Anthropic a principios de 2022, antes del lanzamiento de ChatGPT. Por su parte, el cofundador Brandon Wang es un Thiel Fellow con experiencia en la creación de negocios de suscripción para consumidores, y Rajiv Dattani es un exsocio de McKinsey que dirigió la práctica global de seguros.
El lanzamiento de AIUC señala un cambio más amplio en la forma en que la industria de la IA aborda la gestión de riesgos a medida que la tecnología pasa de las implementaciones experimentales a las aplicaciones empresariales de misión crítica. Al crear incentivos financieros para un desarrollo responsable, empresas como AIUC están construyendo la infraestructura que podría determinar si la inteligencia artificial transforma la economía de forma segura o caótica.
La apuesta de AIUC es que, para cuando los reguladores se pongan al día con el ritmo de la IA, el propio mercado ya habrá construido las barreras de protección necesarias.






