Cinco pasos éticos para el uso consciente de la IA en las empresas

  • Especialista destaca la importancia de utilizar algoritmos y modelos que sean interpretables y comprensibles, de modo que los resultados y las decisiones tomadas por la IA puedan ser rastreados y comprendidos por los expertos y los usuarios.
  • Desde el 2019, el presupuesto invertido en el desarrollo de esta herramienta supera los 40 mil millones de dólares.

La IA ha demostrado tener un enorme potencial para transformar las empresas y mejorar la eficiencia, la productividad y la toma de decisiones. Sin embargo, para aprovechar al máximo sus beneficios y evitar posibles riesgos, es crucial fomentar la capacitación de los colaboradores y adoptar un enfoque consciente y ético en su implementación.

Según una encuesta realizada por Edelman en 2021, el 73% de los encuestados a nivel global expresó preocupación por la falta de ética en el uso de la IA, y el 67% creía que las organizaciones deberían ser reguladas para garantizar un uso ético de la tecnología de IA. En tanto, la Organización para la Cooperación y el Desarrollo Económicos señaló que​ la inversión en investigación y desarrollo de IA desde 2019 superó los 40 mil millones de dólares; y que más del 50% de las empresas encuestadas en Europa ya han implementado sistemas de IA en sus operaciones.

“Cuando pensamos en un enfoque ético de la IA, debemos analizar y pensar en los sesgos que estarían presentes en la generación del algoritmo, hasta tener reglas claras sobre cómo se hará el reskill (recapacitación) de los/as colaboradores/as que ahora deban cambiar de tareas por el impacto de la IA en su día a día”, comenta Claudia Talavera, Managing Director de Experis, una marca de ManpowerGroup, especialista en la sección y reclutamiento de talentos IT.

En la aplicación de la IA en las empresas, Talavera comparte cinco pasos prioritarios para el uso ético y consciente de esta nueva herramienta:

  1. Fomentar una cultura ética: el primer paso para un uso consciente de la IA es establecer una cultura ética en toda la organización. Las empresas deben definir y comunicar claramente los valores y principios éticos que guiarán el uso de la IA. Esto implica tener políticas y procedimientos claros que protejan la privacidad de los datos, eviten el sesgo algorítmico y garanticen la transparencia en las decisiones automatizadas.
  2. Capacitar a los talentos de manera especial: las empresas deben invertir en programas de capacitación y desarrollo profesional para sus empleados, tanto en habilidades técnicas relacionadas con la IA como en comprensión de los aspectos éticos y legales asociados. Además, se deben promover espacios de diálogo y reflexión sobre los desafíos éticos de la IA, fomentando una mentalidad de responsabilidad y toma de decisiones éticas en todos los niveles de la organización.
  3. Garantizar la transparencia y explicar el funcionamiento: la opacidad de los algoritmos de IA puede generar preocupaciones en términos de confianza y responsabilidad. Es importante que las empresas se esfuercen por garantizar la transparencia y explicar claramente cómo funcionan los sistemas de IA. Esto implica utilizar algoritmos y modelos que sean interpretables y comprensibles, de modo que los resultados y las decisiones tomadas por la IA puedan ser rastreados y comprendidos por los expertos y los usuarios. Del mismo modo, es necesario tener un trabajo previo sobre los sesgos, para aprender a identificar los que pueda tener la IA producto de su programación, y así detectarlos y corregirlos.
  4. Considerar los impactos sociales y laborales: la implementación de la IA puede tener implicaciones sociales y laborales significativas. Las empresas deben considerar y evaluar cuidadosamente los posibles impactos en los colaboradores, los clientes y la sociedad en general. Es necesario anticipar y abordar las preocupaciones relacionadas con la automatización de tareas, la reestructuración de puestos de trabajo y la equidad en el acceso a la tecnología, adoptando medidas para mitigar los impactos negativos y maximizar los beneficios sociales.
  5. Evaluar de forma continua y adaptarse: la implementación de la IA es un proceso en constante evolución. Las empresas deben establecer mecanismos de evaluación y seguimiento continuo para identificar y abordar los posibles riesgos éticos y ajustar sus prácticas en consecuencia. Esto implica mantenerse actualizado sobre las mejores prácticas, las regulaciones y los estándares éticos emergentes en el campo de la IA, y estar dispuestos a realizar cambios y mejoras en el enfoque utilizado.

“El uso consciente de la IA en las empresas implica un trabajo en el corto y el largo plazo, pero hay que mirar el hoy para dejar reglas claras que sirvan en el futuro, cuando la IA esté mucho más evolucionada, y del mismo modo su uso”, concluyó Claudia Talavera, Managing Director de Experis.