Con su capacidad para crear y comprender texto, responder consultas, generar informes, traducir diferentes lenguas y resumir contenidos, están habilitando a las empresas a mejorar la experiencia de los clientes, a automatizar la creación de contenidos y a tomar decisiones basadas en datos. Además, las soluciones de inteligencia artificial para empresas que involucran large languaje models mejoran la interacción hombre-máquina y ayudan a crear interfaces más fluidas e intuitivas para los usuarios en diferentes campos.
La consultora Gartner define a los LLMs como “tipos especializados de inteligencia artificial (IA) que fueron entrenadas con grandes cantidades de texto para comprender el contenido existente y generar contenido original”. Un estudio de Markets & Markets prevé que el mercado mundial de large language models alcanzará los U$S 6,4 mil millones en 2024, y rondará los U$S 36,1 mil millones en 2030; con lo cual durante el período 2024-2030 su tasa de crecimiento anual compuesta será de 33,2%.
Un ejemplo conocido de LLM es GPT-4 (sobre el que se basa actualmente ChatGPT). Pero en realidad hay muchos otros. De hecho, varias herramientas de mensajería, redes sociales y motores de búsqueda ya utilizan diferentes versiones de LLM dentro de sus servicios. Los casos de uso de estas soluciones además se multiplican en varias industrias y surgen nuevas aplicaciones para estas manifestaciones de la inteligencia artificial. Pero, así como pueden mejorar las capacidades humanas, estas herramientas también pueden introducir nuevos riesgos. Por ejemplo, pueden propagar desinformación o utilizarse para generar contenido dañino. Por lo tanto, es nuestra responsabilidad como desarrolladores de soluciones que emplean estas herramientas cumplir con principios éticos fundamentales.
Primero, debemos garantizar la responsabilidad en el diseño y uso de la IA, asegurándonos de que sus aplicaciones tengan un impacto positivo y evitando posibles daños. Además, es crucial que nuestras soluciones sean explicables, permitiendo a los usuarios entender cómo y por qué se toman ciertas decisiones, lo que genera confianza y transparencia.
La inclusividad es otro pilar esencial; nuestras herramientas deben ser capaces de atender a personas de diversas culturas y contextos, garantizando un acceso equitativo. Asimismo, la equidad en los sistemas de IA requiere que eliminemos cualquier sesgo que pueda llevar a discriminación, asegurando que todos los usuarios sean tratados con justicia.
No podemos ignorar la privacidad y seguridad de los datos, protegiendo la información personal de los usuarios y evitando cualquier riesgo de exposición indebida. Finalmente, la transparencia en cómo funcionan nuestras soluciones y cómo se utilizan los datos es clave para mantener la confianza de los usuarios y permitir mejoras continuas.
Cumpliendo con estos principios, no solo evitamos riesgos, sino que también promovemos un uso responsable e innovador de la inteligencia artificial, contribuyendo a un futuro más justo y seguro.
Alucinaciones y sesgos
Adicionalmente, los large language models enfrentan desafíos éticos que deben abordarse para garantizar un uso responsable. Entre ellos se encuentran riesgos como las alucinaciones, que son respuestas erróneas o basadas en información falsa, y la protección de los derechos de autor.
Por otra parte, esta tecnología puede utilizarse para difundir información engañosa o influir en la opinión pública, generando contenido de apariencia realista a través de artículos, noticias o publicaciones en redes sociales. Por ello es clave mejorar las políticas de moderación de los contenidos.
Las alucinaciones se pueden mitigar entrenando a los LLMs con conjuntos de datos precisos y relevantes. Hay que proporcionarles contextos claros y aumentarlos con fuentes independientes y verificadas para chequear los datos que devuelve el modelo, de forma cruzada. Además, es esencial entrenar a los LLMs para que diferencien entre fuentes de información creíbles y no creíbles. También es importante ser transparente con los usuarios y hacerles saber que están interactuando con un sistema de IA y que esta tecnología puede producir respuestas erróneas.
El problema de los sesgos (raciales, de género y socioeconómicos, entre otros) merece mucha atención: por ejemplo, un modelo entrenado con textos históricos podría reflejar perspectivas del pasado y reforzar los estereotipos de género o los prejuicios raciales. Para evitar situaciones discriminatorias o dañinas hay que garantizar un conjunto de datos de entrenamiento diverso y representativo, de forma tal de promover la inclusión y la equidad en las respuestas de estas soluciones. Las organizaciones pueden examinar meticulosamente las fuentes de información y establecer procesos y conjuntos de datos de validación sólidos, que incluyan métricas de equidad.
Privacidad y derechos de autor
Con los LLMs también pueden existir problemas de protección de datos y privacidad. Cabe indicar que estos modelos requieren acceso a grandes cantidades de datos para su entrenamiento, que a veces incluyen datos personales de los individuos o información confidencial, que, si llegaran a usarse o manejarse mal, podrían dar lugar a violaciones de la privacidad. Por otro lado, los datos usados para el entrenamiento muchas veces se basan en material que puede estar protegido, lo que hace que puedan surgir disputas por derechos de autor. Para evitar estos problemas se deben priorizar las técnicas avanzadas de anonimización de datos y cumplir con marcos rigurosos de gobernanza y gestión de datos. Además, las empresas deben consultar con sus equipos legales para definir pautas de uso y supervisión de estas soluciones.
Y si hablamos de ética, también hay que considerar el impacto potencial de estos modelos sobre el mundo del trabajo, ya que al automatizar tareas podrían hacer que algunos roles y empleos sean redundantes. En tal sentido es importante que al desarrollar e implementar estas herramientas se ponga en el centro al ser humano, de forma tal que no traigan más problemas de los que vienen a resolver. Atender a la cuestión ética en la inteligencia artificial evita posibles situaciones indeseadas, favorece la confiabilidad de los propios modelos y apoya la innovación responsable.