Por qué su empresa necesita desarrollar buenas prácticas en Inteligencia Artificial

In Blogfest, Data & Applied AI by Baufest

Generative Artificial Intelligence (GenAI) tiene un gran potencial para mejorar la productividad, eficiencia y procesos de toma de decisiones dentro de las organizaciones.

jueves 13 - junio - 2024
Baufest
artificial intelligence

También puede ayudar a los empleados a concentrarse en tareas más estratégicas y creativas. Sin embargo, sin una exploración e implementación cuidadosas, los riesgos futuros podrían superar con creces las ganancias a corto plazo.

Es crucial que las empresas aborden estos riesgos para mantener el valor de la marca y evitar complicaciones legales y financieras.

Los casos de uso actuales de GenAI demuestran que puede agregar valor a muchas áreas comerciales. Sin embargo, un estudio reciente de McKinsey reveló que las organizaciones aún no se sumergen en estas aguas con una visión a largo plazo. La encuesta encontró que pocas empresas parecen estar completamente preparadas para el uso generalizado de GenAI o los riesgos comerciales que estas herramientas pueden traer. Los resultados muestran claramente:

  • Solo el 21% de los que adoptaron esta tecnología dijeron que sus organizaciones habían establecido políticas que regulan el uso de los empleados.
  • Solo el 32% indicó que sus empresas estaban mitigando el riesgo más citado: la inexactitud.
  • Solo el 38% dijo que estaban mitigando los riesgos de ciberseguridad, que ocupan el segundo lugar en importancia.
  • Apenas el 25% estaba trabajando para reducir la infracción de propiedad intelectual (el tercer riesgo más significativo).
  • Solo el 28% estaba trabajando para reducir el cuarto riesgo más relevante: la infracción de cumplimiento regulatorio.

Otros riesgos considerados importantes por las organizaciones en esta investigación incluyeron la explicabilidad (39%), la privacidad personal/individual (39%), el desplazamiento de la fuerza laboral (34%), la equidad y justicia (31%), y la reputación organizacional (29%).

Qué Considerar

Es importante desarrollar e invertir en las mejores prácticas al implementar herramientas y operaciones de inteligencia artificial (IA). Al explorar casos de uso con un conjunto de directrices en mente, su organización puede «subirse al tren» de la evolución continua mientras mitiga los riesgos que acechan en la esquina. Las directrices para desarrollar un enfoque responsable y sostenible para los proyectos de IA son las siguientes:

  • Evitar el comportamiento no guiado de los empleados mientras utilizan de manera independiente la IA en el trabajo.
  • Prevenir el impacto negativo en la marca debido al uso de información no verificada o inexacta en la toma de decisiones y las relaciones públicas.
  • Evitar las consecuencias legales por el uso no autorizado de material protegido por derechos de autor.

Considerar estas premisas no solo reduce varios riesgos, sino que también constituye una inversión en sostenibilidad a largo plazo, evitando gastos futuros relacionados con litigios, multas y daños a la reputación.

Prestar atención a estos aspectos de un enfoque responsable para los proyectos de IA también ayudará a su empresa a proteger y mejorar su imagen corporativa y competitividad. Por el contrario, no hacerlo puede resultar en pérdida de clientes, disminución de la confianza del consumidor y oportunidades de mercado perdidas en comparación con competidores que consideren estas directrices en su estrategia comercial para el uso y desarrollo de IA.

Empleados: Evitar el Comportamiento No Guiado

Es cada vez más tentador para los empleados utilizar las capacidades de la IA generativa para proyectos de investigación, obtener respuestas o ideas, resumir artículos extensos o crear contenido. De hecho, en una encuesta, más de la mitad de los trabajadores dijeron que usan IA generativa al menos una vez a la semana, y el 15% la usa a diario.

Sin embargo, existen riesgos cuando los empleados no están capacitados y no tienen directrices claras sobre el uso adecuado. Estos riesgos incluyen el uso de información incorrecta, violaciones de leyes de protección de datos o la toma de decisiones discriminatorias.

Entre otras cosas, se debe recordar a los empleados que las respuestas de las herramientas de GenAI «pueden ser inexactas y que cualquier información generada con fines comerciales debe ser verificada».

Por ejemplo, si los modelos de GenAI están entrenados con datos sesgados o inapropiados, podrían generar contenido discriminatorio y ofensivo o proporcionar resultados defectuosos. Por lo tanto, es importante tener políticas y procedimientos claros para abordar el uso de esta tecnología en el lugar de trabajo «con usos específicos permitidos y limitaciones o restricciones delineadas».

Según un artículo del Foro Económico Mundial, «la IA generativa se está expandiendo tan rápidamente que muchas empresas no instalan las barreras necesarias». Por ejemplo, en un estudio realizado en 16 países, el 84% de los trabajadores que usan GenAI en el trabajo dijeron que expusieron públicamente los datos de su empresa en los últimos tres meses. Más del 40% dijo que habían visto resultados incorrectos de GenAI, y casi el 10% había utilizado la tecnología a espaldas de su empleador.

Los empleadores deben capacitar a su personal sobre el uso adecuado y responsable de la inteligencia artificial y los aspectos legales involucrados. Por ejemplo, los empleados deben saber «cómo identificar sesgos, hacer las preguntas apropiadas y evitar compartir públicamente información de la empresa».

Además, las organizaciones deben realizar auditorías periódicas de estos sistemas para asegurarse de que se utilicen de acuerdo con las políticas de la empresa y las pautas legales. Estas auditorías pueden «incluir análisis de datos para detectar cualquier patrón de discriminación o sesgo en la toma de decisiones, así como monitorear el uso de los empleados para asegurar que GenAI se utilice para fines comerciales legítimos».

Es importante destacar que, en algunos casos, el empleador también podría ser responsable del uso (o mal uso) de esta tecnología por parte de un empleado.

Evitar el Uso de Información Inexacta o No Verificada

En la encuesta de McKinsey, la inexactitud de los datos se mencionó como el riesgo principal. Se sabe que en la etapa actual de desarrollo, las herramientas de IA generativa pueden llevar a errores o datos incorrectos, como lo evidencian las «alucinaciones» detectadas en muchas respuestas de chatbot.

La IA se utiliza cada vez más en procesos de toma de decisiones que afectan a individuos y a la sociedad en su conjunto. Por lo tanto, verificar la validez y precisión de la información se vuelve cada vez más importante. Además, el rápido avance de los sistemas algorítmicos significa que, en algunos casos, no está claro cómo la IA llegó a ciertas conclusiones, lo que hace que la toma de decisiones empresariales dependa a veces de sistemas que no pueden explicarse completamente.

Los proyectos de IA mal diseñados basados en datos defectuosos, inadecuados o sesgados pueden tener consecuencias no deseadas. Este es otro aspecto clave al discutir los riesgos de la IA y destaca la importancia de adoptar un enfoque responsable para los proyectos de IA. Especialmente, el riesgo de desigualdad y discriminación. Las empresas deben asegurarse de considerar estos factores al implementar desarrollos de IA para mantener la confianza del usuario y proteger la reputación de su negocio.

Por ejemplo, la IA puede aprender y tomar decisiones basadas en datos sesgados, lo que puede llevar a la desigualdad, la discriminación y la injusticia. Si un sistema de IA está entrenado con datos históricos que discriminan a un grupo de personas, podría replicar esa información en sus decisiones. Esto debe evitarse a toda costa.

Para ilustrarlo, los algoritmos de IA ahora se utilizan ampliamente en los departamentos de recursos humanos de muchas empresas para realizar la selección inicial de currículums de candidatos. Cuando estos sistemas contienen sesgos, pueden llevar a la discriminación contra ciertos grupos según el género o la raza, lo que resulta en prácticas de contratación injustas y dificulta los esfuerzos de diversidad e inclusión.

Por lo tanto, las empresas deben asegurarse de que toda la información utilizada para entrenar sistemas de IA sea correcta, justa y representativa de todas las personas.

Evitar Consecuencias Legales por el Uso de Material Protegido

Las implicaciones legales de usar GenAI aún no están claras. La ambigüedad en torno a la propiedad y protección de las obras generadas por IA crea desafíos para las empresas que utilizan estas herramientas. Esto incluye preocupaciones sobre la infracción de derechos de autor de terceros a través de la reproducción no autorizada de obras protegidas o la creación no autorizada de obras derivadas. También existen riesgos de infringir los derechos de las bases de datos utilizadas para el entrenamiento. Además, existen preguntas sobre la patentabilidad de las invenciones generadas por IA. Además, las organizaciones necesitan proteger la información confidencial y manejar los riesgos de cumplimiento.

En este sentido, es importante que las empresas primero comprendan los riesgos y luego se mantengan informadas y aprendan cómo protegerse. Por ejemplo, si utilizan herramientas de IA, deberían buscar protecciones en contratos y exigir términos de servicio que confirmen la licencia adecuada de los datos de entrenamiento que alimentan la plataforma.

Protección de Datos

Otra preocupación central relacionada con el uso de IA involucra la protección de datos personales. Estos sistemas necesitan grandes cantidades de datos para entrenar y proporcionar información, lo que puede arriesgar tanto la privacidad como la seguridad de los datos. El riesgo es que la información personal se pueda utilizar de manera inapropiada, afectando la privacidad de los individuos. Por lo tanto, las políticas de uso deben incluir la gestión de datos y las directrices de privacidad en los proyectos de IA.

Otra preocupación al pensar en la inteligencia artificial es su impacto en el empleo y la posibilidad de que esta tecnología haga obsoletos muchos puestos de trabajo. En este punto, las empresas deben actuar de manera responsable y tomar la iniciativa en la capacitación y mejora de habilidades de los empleados para nuevos roles y las habilidades demandadas por el mercado laboral actual.

En cuanto a la IA, es imperativo equilibrar la innovación con la responsabilidad. En Baufest, podemos ayudar a tu empresa a explorar los casos de uso más interesantes de IA para tu negocio con un enfoque responsable y sostenible centrado en las mejores prácticas. Podemos ser el socio que necesitas para abordar los riesgos de IA para que puedas aprovechar sus significativas ventajas y evitar problemas futuros.