Peter Ruffley explora las cuestiones éticas que afectan a la adopción de la IA por parte de las empresas, la importancia de la confianza y la necesidad de contar con conjuntos de datos sólidos que respalden una sólida comprobación de sesgos.

La inteligencia artificial (IA) está cambiando nuestra vida. Está transformando el diagnóstico y el tratamiento en toda la atención médica, mejorando los resultados de los pacientes. Está acelerando el descubrimiento de fármacos, tiene el potencial de mejorar drásticamente la seguridad vial y, a través de la robótica, está dando rienda suelta a una nueva productividad y calidad de fabricación. Pero la velocidad con la que las tecnologías emergentes como ChatGPT han sido adoptadas por los individuos está elevando las implicaciones éticas y políticas de la adopción de la IA a la cima de la agenda.

A pesar de todos los beneficios que la IA sin duda puede ofrecer, si los algoritmos no se adhieren a las pautas éticas, ¿es seguro confiar en los resultados y utilizarlos? Si los resultados no son éticos o, si una empresa no tiene forma de determinar si los resultados son éticos, ¿dónde está la confianza? ¿Dónde está el valor? ¿Y qué tan grande es el riesgo?

Los llamados de los líderes tecnológicos para que la industria se mantenga firme en el desarrollo de la IA llegan demasiado tarde. La caja de Pandora está abierta de par en par y, con la llegada de ChatGPT, todo el mundo está jugando con la IA, y la adopción individual por parte de los empleados está superando la capacidad de respuesta de las empresas. Hoy en día, los gerentes no tienen idea de si los empleados están usando IA, y no hay forma de saber si el trabajo ha sido realizado por un individuo o por tecnología. Y ahora que algunos empleados afirman estar utilizando estas herramientas para trabajar en varios trabajos a tiempo completo, ya que las herramientas permiten completar trabajos como la creación de contenidos y la codificación en la mitad del tiempo, las empresas necesitan controlar rápidamente las políticas de IA.

Dejando de lado por ahora las cuestiones éticas planteadas por las personas que potencialmente defraudan a su empleador al no dedicar su tiempo al trabajo a tiempo completo, la producción actual de ChatGPT puede no representar un gran riesgo. Los correos electrónicos y los textos de marketing creados por chatbots deben seguir estando sujetos a los mismos niveles de rigor y aprobación que el contenido manual.

Pero esto es la punta de un iceberg que se expande muy rápidamente. Estas herramientas se están desarrollando a un ritmo fenomenal, creando nuevos riesgos no considerados todos los días. Es posible hacer que un chatbot escriba reglas de Excel, por ejemplo, pero sin forma de demostrar qué reglas se han utilizado o qué datos han cambiado, ¿se puede confiar en esos datos? Dado que los empleados tienden a ocultar su uso de la IA a los empleadores, las empresas están completamente ciegas ante el riesgo empresarial en rápida evolución.

Esto es solo el comienzo. ¿Qué sucede cuando un ingeniero le pide a ChatGPT que compile la lista de tareas de seguridad? ¿O un abogado utiliza la herramienta para comprobar la jurisprudencia antes de dar la opinión de un cliente? El potencial de desastre es ilimitado.

ChatGPT es solo una cara de la historia de la IA corporativa. Las empresas también están adoptando rápidamente el poder de la IA y el aprendizaje automático (ML) para acelerar la automatización en áreas como la salud y los seguros. Estas tecnologías son muy emocionantes. Desde la sanidad hasta la educación, pasando por la prevención del fraude y los vehículos autónomos, estas soluciones de IA y aprendizaje profundo han demostrado un rendimiento excepcional en el reconocimiento y la predicción de datos, especialmente para el reconocimiento visual y las tareas de análisis/predicción secuencial de datos.

Pero, y es un gran pero, ¿pueden las empresas confiar en estas decisiones cuando no hay forma de entender cómo la IA sacó sus conclusiones? ¿Dónde están las rigurosas comprobaciones de precisión, sesgo, privacidad y fiabilidad? Para que la IA alcance su potencial, las herramientas deben ser sólidas, seguras, resistentes a los ataques y, lo que es más importante, proporcionar algún tipo de pista de auditoría para demostrar cómo se han llegado a las conclusiones y se han tomado las decisiones.

Sin esta capacidad de «mostrar su funcionamiento», las empresas se enfrentan a una pesadilla legal y de responsabilidad social corporativa (RSC).  ¿Qué sucede si se demuestra que los algoritmos operan en contra de la estrategia de diversidad, igualdad e inclusión (DEI) de la organización y, como resultado, el sesgo y la discriminación se han incrustado en la toma de decisiones?

En lugar de pedir una desaceleración inalcanzable en el desarrollo de la IA, ahora es imperativo que los expertos en datos se reúnan para mitigar los riesgos y permitir un uso eficaz y confiable de estas tecnologías.  Corresponde a los expertos en datos desarrollar tecnología para respaldar el uso operativo seguro y ético de la IA. Esto solo se puede lograr si tanto los datos que se utilizan como el resultado de la actividad de IA y ML están respaldados por procedimientos adecuados de gobernanza de datos y calidad de datos, incluido el uso de conjuntos de datos precisos y accesibles para verificar si los resultados de IA están sesgados.

En la práctica, esto requiere el desarrollo de componentes fiables a lo largo de todo el proceso de producción de IA para proporcionar una transparencia esencial que permita a una empresa comprender cómo la IA llegó a sus conclusiones, qué fuentes se utilizaron y por qué. Es evidente que esta tecnología de «comprobación de la IA» también debe ser inherentemente utilizable, un marco sencillo de gobernanza de datos y seguimiento de riesgos que pueda proporcionar alertas ante el sesgo expuesto, la discriminación o el uso de datos de origen cuestionables y permitir que se revise todo el proceso de la IA si es necesario.

La creación de una herramienta simple que pueda cerrar la brecha entre los expertos en el dominio de una empresa y los expertos en IA facilitará la comprensión y la confianza en el sistema de IA, brindando a las empresas la confianza para adoptar la IA y confiar en el resultado.

Además, existe una necesidad global de colaboración y uso compartido de datos, tanto dentro de las organizaciones como entre ellas, para ampliar los datos disponibles y agregar más contexto y precisión a la maraña de información exclusiva de Internet.  Esta colaboración será una parte vital del proceso para contrarrestar el sesgo y la discriminación generados por la IA que, junto con la «explicabilidad» de la IA, creará una visión fiable del mundo en la que la IA puede ofrecer el valor empresarial tangible que las organizaciones buscan actualmente.

Conclusión

Estos cambios deben, por supuesto, tener lugar mientras la IA continúa con su extraordinario ritmo de innovación. Por lo tanto, aunque la colaboración y la tecnología que ofrece confianza en la IA están en la agenda, los próximos años no estarán exentos de riesgos. Es casi inevitable un posible fracaso corporativo a gran escala debido a la mala gestión del uso de la IA, tanto a nivel individual como corporativo.

Como tal, ahora es imperativo que las organizaciones escalen la creación de estrategias sólidas para gestionar de manera segura la adopción y el uso de la IA, con un fuerte enfoque en las implicaciones para la RSC y el riesgo corporativo. Por lo tanto, si bien algunas organizaciones no progresarán tan rápido como otras que se precipitan hacia la IA y el ML, al adoptar un enfoque ético de la IA estarán salvaguardando a sus partes interesadas y, muy posiblemente, protegiendo el futuro del negocio en el proceso.

El autor

Peter Ruffley es director ejecutivo de Zizo.

Your email address will not be published.

You may use these <abbr title="HyperText Markup Language">HTML</abbr> tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Lang. »