Allá por mediados de 2022, en una reunión de trabajo con colegas de Recursos Humanos, mencioné que en un futuro muy próximo, las empresas requerirían contar con la figura de Director de Ética o Chief Ethics Officer.
Esto fue algunos meses antes de que empezáramos a escuchar términos como inteligencia artificial generativa (IAG), redes neuronales artificiales o incluso herramientas como ChatGPT. En aquel entonces, argumenté, los algoritmos que se estaban utilizando para reclutar personal o evaluar talento podían incurrir fácilmente en sesgos humanos, pues los algoritmos, que eran programados por humanos, con los juicios y sesgos inherentes a las personas, estaban tomando decisiones por los humanos.
El centro de mi argumento eran los retos éticos y morales asociados con la calidad de dichas decisiones (porque potencializaban los sesgos humanos). ¿Someter a un paciente a una operación derivada del diagnóstico del algoritmo?, ¿otorgar libertad bajo fianza al sospechoso de un delito?
Mi reflexión en aquella junta pasó sin mayor interés. Incluso, alguno de los asistentes mencionó que personalmente no veía relevancia en el tema de los sesgos o los algoritmos. Entiendo perfectamente; en la era pre-inteligencia artificial, tal como la conocemos hoy, los sesgos en los algoritmos eran un tema poco estudiado y comprendido.
Hoy en día, esto ha experimentado un cambio notable. Con el objetivo de asegurar una gestión cuidadosa para prevenir daños no intencionados, pero significativos, tanto para la reputación de las marcas como para el bienestar de los empleados, individuos y la sociedad en general, algunas empresas están instituyendo una nueva posición: el Director de Ética o Chief Ethics Officer.
Este nuevo rol se enfocará en dos áreas clave: evaluar los riesgos éticos como sesgos, privacidad y discriminación, y proponer estrategias para mitigarlos; además de facilitar la creación de políticas y directrices claras para un uso responsable de la IAG.
La semana pasada, en el marco del Foro ERIAC 2024 celebrado en Monterrey, Leticia Gasca, conferencista en temas de tecnología e inteligencia artificial, durante su conferencia abordó las implicaciones éticas de la IA.
Gasca planteó puntos cruciales que subrayan los riesgos éticos de la IA como el impacto del sesgo y la equidad en los sistemas de inteligencia artificial utilizados para filtrar solicitudes de empleo, señalando cómo los datos de entrenamiento sesgados pueden marginar a candidatos competentes.
Otro punto destacado fue la transparencia y la necesidad de revelar claramente, en las aplicaciones que emplean IA, la ausencia de revisión humana. Así mismo, subrayó la importancia de una sólida gobernanza en entidades financieras que utilizan IA para evaluar créditos, con el fin de evitar la discriminación y garantizar prácticas justas.
Estamos apenas comenzando a vislumbrar las primeras implicaciones éticas de la implementación y gestión de herramientas que utilizan inteligencia artificial generativa. Todo esto subraya los desafíos que acompañan al rápido avance de la inteligencia artificial que protejan tanto los derechos individuales como el bienestar colectivo en esta nueva era tecnológica.
De ahí la relevancia de contar en la alta dirección, más allá de los aspectos de compliance o regulatorios que las empresas ya vienen gestionando, con una posición que se enfoque específicamente en evaluar tanto las implicaciones éticas, como el impacto que la IAG tendrá sobre los seres humanos en ambientes laborales.
Epílogo.— Otro de los conferencistas destacados en el Foro ERIAC fue Fred Kofman, fundador y presidente del Conscious Business Center. Kofman enfatizó un punto que ya hemos explorado en este espacio: la empresa no es una familia ni un grupo de amigos. Según él, una empresa está formada por individuos que persiguen un objetivo común a través de una estrategia definida y ejecutada de arriba hacia abajo (Top down).
Durante la sesión de preguntas al final de su charla, le planteé si consideraba que se ha abusado del concepto de cultura organizacional y si sería más apropiado entenderlo como valores empresariales orientados al rendimiento. Su respuesta fue clara y contundente: la cultura organizacional se refiere a los comportamientos de rendimiento esperados, mientras que los valores morales representan un conjunto de comportamientos que se espera que las personas ya posean.
El autor es Doctor en Filosofía, fundador de Human Leader, Socio-Director de Think Talent, y Profesor de Cátedra del ITESM.
Contacto: rogelio.segovia@thinktalent.mx