Insurance Europe ha publicado su respuesta a una consulta de la Comisión Europea sobre los requisitos éticos y jurídicos de una inteligencia artificial (IA) fiable en la UE.

Las aseguradoras ya están utilizando la IA para mejorar el servicio al cliente, aumentar la eficiencia, proporcionar una mayor comprensión de las necesidades de los clientes y evitar las transacciones fraudulentas. Los clientes están adoptando esta innovación en el ámbito de los seguros, ya que responde a sus necesidades y hace que sus interacciones con las aseguradoras sean más convenientes.

Como señaló el grupo de expertos de alto nivel sobre la IA de la Comisión en sus recomendaciones normativas, el desarrollo y la utilización de la IA ya está cubierto por un amplio cuerpo de legislación de la UE existente, como la relativa a los derechos fundamentales, la privacidad y la protección de datos, así como la seguridad y la responsabilidad de los productos. Esto se complementa además con marcos normativos nacionales y sectoriales.

Por consiguiente, para promover la adopción de la IA y evitar que las tecnologías innovadoras se vean sofocadas por una reglamentación prematura, el uso ético de la IA debe apoyarse y reforzarse en la medida de lo posible mediante instrumentos voluntarios y/o no legislativos. Las certificaciones voluntarias han demostrado ser tradicionalmente un medio eficaz para garantizar normas elevadas y transparentes (por ejemplo, en la esfera de la seguridad de la tecnología de la información).

Además, un enfoque centrado principalmente en instrumentos voluntarios (por ejemplo, códigos de conducta o directrices elaborados por la industria) sigue siendo compatible con la opción de introducir instrumentos legislativos que contengan requisitos obligatorios para determinadas aplicaciones de la inteligencia artificial.

“Sin embargo -destacan desde Insurance Europe-, es importante velar por que todo instrumento legislativo de la UE que pueda introducirse sea horizontal, proporcionado y basado en los riesgos, y se limite únicamente a las aplicaciones de IA de «alto riesgo» que se determinen sobre la base de criterios claros”. El organismo explica que la inclusión en el ámbito de esos requisitos de procesos o aplicaciones de automatización comunes y de bajo riesgo que plantean poco o ningún riesgo para los derechos de los clientes “obstaculizaría la innovación y la adopción de nuevas tecnologías, daría lugar a costos adicionales y crearía una carga desproporcionada en vista de su bajo riesgo”.