Para los líderes de la transformación digital la pregunta crítica es: ¿Cómo puede la empresa beneficiarse de las oportunidades que presenta la tecnología y, al mismo tiempo, salvaguardar el bienestar de los empleados, los clientes y la sociedad?

Según revela el último informe de KPMG, hay cinco pilares que puede orientarnos y proporcionan una visión sobre las políticas y las acciones para que la IA sea completamente productiva y beneficiosa.

Además, la ética permitirá a la organización construir y desplegar modelos de Inteligencia Artificial que tengan integridad y transparencia. “Lo que está en juego son los resultados del negocio y, en última instancia, la confianza de sus empleados, sus clientes y la sociedad en general”, remarca la consultora.

1.- Transformar el lugar de Trabajo

El reto más inmediato es la interrupción del lugar de trabajo ya que hay un cambio masivo de roles y tareas que definen el trabajo. A esto se suma el surgimiento de análisis y  la toma de decisiones automatizadas. No hay duda de que el panorama laboral cambiará, pero según revela KPMG en el informe CEO Outlook, un área en la que los CEO de EE.UU. son decididamente más optimistas este año es el impacto de la IA en los puestos de trabajo.

Pase a la acción: La fuerza de trabajo del futuro requiere un nuevo enfoque en los negocios, que esté completamente centrado en el empleado y sea transparente.

Las organizaciones pueden prepararse para estos cambios ayudando a los empleados a ajustarse al papel de las máquinas en sus trabajos. Al mismo tiempo, los líderes deben reconocer que la transformación del lugar de trabajo es un reto de gestión del cambio.

2.- Supervisión y gobernanza

Se materializa una nueva regulación y/o supervisión de la IA. Para ello, es el momento de establecer políticas claras en toda la empresa sobre el despliegue de la IA, afirma la consultora, incluyendo el uso de los datos y los estándares de privacidad.

La adopción de este importante paso mantendrá a las empresas en la vanguardia y puede ayudar a influir en la dirección de la legislación. Además, los responsables de la elaboración de políticas consideran a las organizaciones de éxito como modelos a seguir.

3.- Alinear la ciberseguridad y la IA 

Los algoritmos autónomos provocan preocupación por los riesgos de ciberseguridad a medida que aumenta su influencia en el negocio. Los ataques adversos, destaca el informe, pueden comprometer potencialmente la privacidad y crear sesgos.

Incorpore una seguridad sólida en la creación de algoritmos y en el gobierno de los datos. Cuando una «brújula ética» está en el ADN del desarrollo de algoritmos, la integridad general del modelo será más fuerte. Desde la consultora destacan cuatro aspectos que  contribuyen a la construcción de la seguridad en la IA:

  • Comprender el contexto y el propósito previsto bajo el cual el modelo fue desarrollado
  • Identificar quién entrenó los algoritmos
  • Conocer la procedencia de los datos y cualquier cambio realizado en ellos
  • Comprender cómo los modelos fueron (y son) servidos y protegidos- Mantener una revisión y confirmación continua de la efectividad y precisión de un algoritmo.

4.- Sesgo de atenuación

Los líderes y reguladores quieren entender el funcionamiento de los algoritmos sofisticados y autónomos para poder tomar medidas para eliminar los prejuicios injustos a medida que evolucionan. Por eso es muy importante entender qué atributos de los datos de  influyen en las predicciones de un modelo.

“Asegúrese de que el objetivo y el propósito de los algoritmos críticos estén claramente definidos y documentados. Verifique que el diseño esté alineado con los principios, estándares y directrices, los valores y la ética corporativa, el cumplimiento y los estándares de seguridad y calidad.

La mejor manera de identificar y evitar sesgos puede estar en los equipos encargados de dirigir la capacitación de los algoritmos”, recuerda la conultora. También es importante establecer una revisión independiente de los modelos críticos en los que el sesgo podría producir un impacto social adverso.

Al hacer que la IA sea más explicable, auditable y transparente, podemos hacer que nuestros sistemas sean más justos, más efectivos y más útiles

5.- Incrementar la trasparencia

Algunos líderes están proponiendo estándares universales a medida que la IA y el aprendizaje automático avanzan. El objetivo sería la transparencia -y, sobre todo, la claridad– para los ciudadanos y consumidores que están confundidos sobre los datos y la información que proporcionan en las experiencias digitales (y analógicas). Para la consultora, si las empresas pueden establecer firmemente sus propias políticas y prácticas -y demostrar el éxito con ellas- informarán los estándares a nivel nacional o federal

Para ello, crear «contratos de confianza». Ofrecer a los clientes la claridad y la información que desean y necesitan. “Ese simple y básico principio rector es lo que las marcas deben hacer. La parte difícil es ser simple y claro sobre temas complejos, explicando cómo se utilizan los datos y por qué influyen en la experiencia del cliente”, reconoce KPMG.

Último consejo; un contrato de confianza

«Deje que el público sepa cómo está siendo transparente y las decisiones que toman sobre los datos personales. Le está dando al cliente lo que quiere -el poder de optar por entrar o salir- y le está mostrando el beneficio que obtiene al darle su permiso. Piense en su manejo de información y datos de identificación personal como un contrato de confianza«.

El miedo a la pérdida de ingresos, al daño a la reputación o a las multas regulatorias no debería ser la fuerza impulsora detrás de su decisión de embarcarse en una transformación ética con su IA, de acuerdo con Forrester Research. La transformación ética de la IA es una oportunidad para aceptar el cambio, en la que serán los grupos de interés y no la junta directiva, quienes impulsan la ética de la empresa.

La transformación ética de la IA es una oportunidad para aceptar el cambio, en la que serán los grupos de interés y no la junta directiva, quienes impulsan la ética de la empresa