El pasado 13 de junio entró en vigor el reglamento europeo en materia de IA, que regula el uso de esta tecnología en las empresas. En base a la misma, ECIX y Marsh han presentado el informe ‘Guía sobre inteligencia artificial para directivos y CEO's’, que permite conocer las implicaciones de la normativa en alineación con las estrategias y operaciones empresariales, así como la respuesta del mercado asegurador a la cada vez mayor penetración de esta tecnología dentro de las organizaciones. Aunque la IA está afectando transversalmente a todo tipo de ámbitos, es complicado generar un seguro que abarque todos los aspectos en los que incide y que, a la vez, no solape otros seguros.
ARTÍCULO PUBLICADO EN LA REVISTA PYMESEGUROS Nº 137
Pablo Trueba, CEO Marsh Spain, fue el encargado de presentar el análisis, en el que se ha querido abordar las complejidades de la IA y las oportunidades “ilimitadas de crecimiento” que ofrece al entorno empresarial, como la agilización de operaciones, la mejora de eficiencia o la innovación de procesos. Ahora bien, también recalcó que conlleva una serie de retos que habrá que acometer en un futuro próximo, como el riesgo de concentración tecnológica en el desarrollo de la IA generativa, además de otros como el despliegue malintencionado de agentes, la distorsión del mercado laboral o el aumento de la brecha económica.
Tras la presentación, Francisco Pérez, socio del Área Digital Law de ECIX, destacó que esta guía pretende abrir un campo de debate sobre la IA. En esta línea, hizo hincapié en las implicaciones legales de una norma existente en España desde 2022 que obliga a promover el uso responsable de la IA, la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, que busca velar por la legalidad y ética de la IA en las empresas.
De hecho, a nivel jurídico y normativo, afirmó que la implementación de la IA y su consideración como riesgo se enmarcará en una serie de reglamentos:
• Normativa legal: reglamentación de la IA, directiva de daños...
• Normativa deontológica: código de conducta.
• Normativa técnica: ISO 24030, ISO 4200...
• Regulación del mercado: requisitos de los mercados cotizados.
• Estrategias de IA: estrategia europea de IA, carta de derechos digitales...
• Otras normas: recomendaciones del regulador y organismos oficiales, opiniones expertas...
A su criterio se está creando un ecosistema normativo transversal que está dando lugar a un nuevo reglamento de IA, con la modificación de las directivas de RC extracontractual y de daños causados por productos defectuosos; la creación de la Agencia Española de Supervisión de la Inteligencia Artificial (que echará a andar tras el verano); el Convenio Internacional de IA; la reciente puesta en marcha de la Oficina Europea de Inteligencia Artificial; o el reglamento de máquinas. A lo que se une la adaptación política tras las pasadas elecciones europeas.
Ahora bien, Francisco Pérez también quiso resaltar cómo la IA es considerada un riesgo inversor, tal y como destacan varios organismos internacionales. La Comisión de Mercados y Valores de Estados Unidos exige a las empresas cotizadas informar sobre los modelos de gobernanza respecto al uso de la IA. Bloomberg, por su parte, ha publicado que las referencias a la IA entre inversores y empresas de S&P 500 se han incrementado un 7,7%. Y el Dow Jones ha incorporado 24 nuevas preguntas a su cuestionario para empresas cotizadas relativas a esta materia.
En esta línea, recordó que la IA tiene un impacto evidente en las políticas de ESG y enumeró algunos de los aspectos en los que incide:
· Transparencia: uso de la algoritmia y su impacto real.
· Gestión de riesgos: medioambientales o los sesgos que se aplican.
· Impacto social: en el desplazamiento y redistribución del empleo y rentas.
· Innovación responsable: equilibrio de los beneficios económicos con los sociales.
· Responsabilidad ética: como aspecto de la RSE y del buen gobierno.
No obstante, advirtió que la IA es “una tecnología disruptiva”, cuya previsión es de un gran impacto social en distintos ámbitos: educativo, fiscal, etc. Además, tendrá una incidencia global en todo tipo de compañías y sectores: como activo de la empresa, como tecnología incorporada a áreas de la compañía, como tecnología incluida en servicios de proveedor...
Todo ello dará lugar a exigencias de nuevos modelos de gobernanza, que algunas empresas ya las están aplicando a través de los consejos de administración, comités especializados o transversales o comité éticos. Y es que, como recordó el socio del Área Digital Law de ECIX, la IA puede conllevar riesgos de tipo técnico, jurídico y ético y pueden provocar daños físicos y económicos, por lo que es aconsejable contar con una cobertura aseguradora.
Luis Ybáñez, Head of Professional Risks & Healthcare Industry for Finpro (Financial and Professional) de Marsh Specialties, explicó los desafíos que conlleva la aplicación de la IA, ya que si bien “cualquier compañía debe tener en cuenta cómo puede ayudar a su desarrollo empresarial”, también tiene que ser consciente de que, ya sea como creadora de la tecnología o como usuaria, puede generar riesgos, como daños a terceros, daños reputacionales, brechas de privacidad, fraude, suplantación de identidad, etc.. Unas circunstancias que están obligando al mercado asegurador a adaptarse.
Ahora bien, aunque declaró que la IA está afectando transversalmente a todo tipo de ámbitos, es complicado generar un seguro que abarque todos los aspectos en los que incide y que, a la vez, no solape otros seguros. Una situación que resulta, a su parecer, similar a cuando empezaron a crearse los ciberseguros. “Las compañías ahora son muy prudentes y ven caso a caso la cobertura por daño por IA”, resaltó, toda vez que aún no hay una siniestralidad significativa como para llevar a cabo la tarificación que permita elaborar productos con gran cobertura. “Los brókeres tenemos que hacer encaje de bolillos con distintas pólizas para cubrir la exposición”, resaltó.
Además, la IA está expuesta al error humano y avanza “a mucha más velocidad” que la ley. De ahí que crea que el reglamento europeo es importante, pero no suficiente. Las aseguradoras, por lo tanto, tendrán que someterse a esa regulación a la hora de realizar los productos y relacionarse con los clientes, mientras que los brókeres intentarán prevenir y mitigar el riesgo y acompañar a las aseguradoras para generar un producto que cree la mejor protección posible para sus clientes. “Hay mucha prevención que hacer a la espera de que el mercado asegurador avance”, comentó.
También Sofía García-Ollauri, Head of Claims Advocacy for Finpro de Marsh Advisory, expresó sus inquietudes sobre que la comprensión del riesgo en IA esté en una fase incipiente, a pesar de que afecte a numerosos ramos (D&O, Daños, Patrimoniales...): “Hoy en día hay una cobertura silenciosa que provoca inseguridad”, redundó.
Con todo, verificó que las aseguradoras están trabajando para ofrecer una póliza efectiva y destacó que la preocupación actual del sector asegurador es el riesgo sistémico. De ahí que ya estén trabajando en las coberturas, primas, reclamaciones posibles, ramo que les cubre, si hay que usar varias pólizas para cubrir el riesgo o se requiere una cobertura nueva específica...
A nivel de suscripción se está barajando la introducción de preguntas sobre cómo actúan para prevenir los riesgos de la IA, aunque también esta tecnología permite evaluar riesgos de manera más precisa (a través de hábitos de vida registrados en app, rastreo de las redes sociales...), que puede provocar una reducción de la prima. Mientras que, a nivel de siniestros, la inteligencia artificial permite una gestión más ágil y eficiente, gracias al uso de drones, videoperitaje, análisis del lenguaje...
En cualquier caso, García-Ollauri quiso destacar que dentro de las empresas hay que realizar una gestión preventiva y proactiva, toda vez que la implementación de esta tecnología presenta numerosos riesgos. De ahí que reclamase que se incorporen estrategias de IA alineadas con estrategias generales de la empresa: “Hay que detectar áreas clave de uso y establecer políticas con indicadores clave de rendimiento, evaluación de recursos y estructuras tecnológicas, formación de los empleados, plan de priorización de proyectos e implementar y monitorizar la estrategia”, arguyó. Para ello, cada compañía está adaptando diversos organismos para gestionar este riesgo, ya sea a través de comités de empresas o creando organismos nuevos específicos.
Y aunque recordó que en la actualidad no existe una normativa ad hoc sobre el control de la IA para los CEO, sí existen compromisos en otras leyes. De hecho, el empleo de la inteligencia artificial dentro de las empresas debe ir acompañado de un sólido modelo de gobernanza. Además, para anticiparse a estos riesgos la Head of Claims Advocacy for Finpro de Marsh Advisory cree que: se debe analizar cómo responden las pólizas contratadas ante posibles siniestros con la IA, por las potenciales demandas contra los CEO por su uso o no; se tiene que cumplir la propiedad intelectual; hay que prever posibles demandas de los empleados; hay que valorar las exclusiones por fallos del software; y se debe tener en cuenta la responsabilidad subsidiaria por incumplimiento de la propiedad del dato. “Estamos a tiempo de anticipar y gestionar estos riesgos”, concluyó.
www.pymeseguros.com