Contacto
Pattern

Riesgos de la IA generativa en los negocios y cómo gestionarlos

La IA generativa está lista para revolucionar el mundo empresarial, pero las empresas deben tener cuidado al adoptar esta tecnología innovadora. En este artículo, nuestros expertos de IA generativa comparten sus riesgos, que incluyen alucinaciones, sesgos, preocupaciones sobre la seguridad de los datos, dilemas éticos relacionados con la pérdida de empleo e implicaciones legales en torno a los derechos de propiedad intelectual. También brindan consejos y experiencias prácticas sobre cómo puedes gestionar estos riesgos para asegurarte de que se utilicen de manera segura y responsable.

La IA generativa se está convirtiendo rápidamente en un fenómeno global y sus casos de uso empresarial, desde generar contenido atractivo hasta impulsar agentes de servicio al cliente virtuales, están listos para revolucionar la forma en que hacemos negocios.

Y aunque se debate mucho sobre la influencia de esta tecnología revolucionaria en la sociedad en general, a menudo se pasan por alto sus implicaciones negativas para las empresas.

En este artículo, exploraremos detalladamente los riesgos de la IA generativa y compartiremos nuestra experiencia práctica sobre cómo gestionarlos.

Los cinco riesgos clave de la IA generativa para las empresas son:

Precisión de la información de la IA generativa

La mayor preocupación de la IA generativa para las empresas orientadas a datos es la precisión de la información, especialmente el riesgo de «alucinaciones«. Estas alucinaciones ocurren cuando la IA genera respuestas que no se basan en los datos de entrenamiento, lo que resulta en información incorrecta o irrelevante.

Las respuestas inexactas representan riesgos significativos para las empresas, ya que pueden llevar a desinformación y confusión, dañando en última instancia su reputación y la confianza del cliente. Y si tienes el hábito de tomar decisiones basadas en datos, esto eventualmente dañará tu reputación y la confianza de los clientes. Para empeorar las cosas, los modelos de lenguaje grandes rara vez producen la misma salida dos veces, lo que dificulta la verificación de hechos.

Establecimiento de Bases y Pruebas

Sin embargo, las empresas pueden tomar medidas para reducir el riesgo de alucinación a través del proceso de fundamentación. La fundamentación implica anclar el sistema de IA a datos confiables o una fuente de verdad.

Por ejemplo, el modelo RAG (Recuperar y Generar) utiliza la fundamentación al recuperar documentos relevantes (por ejemplo, la documentación de su producto) y generar respuestas basadas en ellos.

Otra forma de probar su modelo antes del lanzamiento o después de una gran actualización es comparar la salida con un conjunto de datos que considere verdadero. Si está configurando un chatbot de preguntas y respuestas, la verdad sería las respuestas que sus agentes de servicio al cliente proporcionaron en el período anterior.

A continuación, le pide al sistema que responda las mismas preguntas y compara los dos conjuntos de datos. Según los resultados, puede ver qué tan preciso es el modelo y las posibles brechas que debe abordar

Educando a clientes y equipos

Pero mejorar la IA generativa va más allá de los avances tecnológicos; las empresas también deben invertir en educar a su personal y clientes.

Muchos equipos tienen la idea equivocada de que la calidad de los datos no importa con la IA generativa debido a su capacidad para leer datos no estructurados. Sin embargo, el dicho «basura entra, basura sale» aún se aplica, por lo que es crucial asegurarse de que los datos confiables se alimenten en el sistema.

Por otro lado, los usuarios deben ser conscientes de las capacidades y limitaciones de la IA generativa y utilizarla con suposiciones y consideraciones apropiadas.

Opiniones de los usuarios

Por último, los comentarios continuos de los usuarios son vitales para mejorar los modelos de IA generativa. En nuestros proyectos, facilitamos que los usuarios brinden comentarios sobre las respuestas que reciben al permitirles dar me gusta o no me gusta a las respuestas de la IA.

Para obtener mayor claridad, puede preguntarles por qué una respuesta en particular no fue buena (por ejemplo, si no fue relevante) e incluso dejar una opción para comentar para obtener más contexto. Estos comentarios ayudarán a identificar las brechas dentro del modelo y desarrollar estrategias para abordarlas.

Riesgo de sesgo en la IA generativa

La mayoría de los modelos de IA generativa se entrenan con datos extraídos de internet. Y aunque podría ser tentador asumir que internet es una buena representación del mundo, eso está lejos de la verdad.

El acceso a internet no es igualitario y muchas partes de la sociedad no son escuchadas o están marginadas.

Como resultado, nuestros sesgos sociales más amplios pueden filtrarse en los modelos de IA generativa, que pueden:

  • amplificar estereotipos (por ejemplo, a través del contenido que generan)
  • tomar decisiones discriminatorias

Las empresas deben priorizar el uso de fuentes de datos de alta calidad (por ejemplo los datos de primera parte) como primer paso para mitigar este problema. Además, deben trabajar activamente para identificar y eliminar sesgos en sus conjuntos de datos. Esto puede incluir estrategias como diversificar los datos de entrenamiento para ser más inclusivos.

Otro enfoque es que los humanos guíen los modelos de IA, una práctica conocida como Aprendizaje por reforzamiento a partir de la retroalimentación humana. Si bien esta práctica no está diseñada explícitamente para combatir sesgos, puede ser altamente beneficiosa si las empresas tienen la capacidad y experiencia para implementarla.

La transparencia también es crucial si deseas que tu modelo de IA generativo esté libre de sesgos. Con frecuencia, los modelos de IA funcionan como una «caja negra», dejando a los usuarios sin conocimiento del proceso detrás de un resultado específico.

El surgimiento de la IA Explicable (XAI) tiene como objetivo abordar esto mediante la medición de la interpretabilidad y explicabilidad de un modelo. Esta transparencia permite a los usuarios y expertos comprender el ‘Cómo’ y el ‘Por qué’ detrás de una respuesta específica y proporcionar comentarios.

Además, existe una creciente demanda social de un desarrollo ético de la IA que considere las perspectivas de los grupos marginados. Iniciativas como el Observatorio de Políticas de IA de la OCDE y los esfuerzos de varias redes de trabajo independiente destacan este compromiso.

Riesgos de privacidad y seguridad de los datos de la IA generativa

La IA generativa plantea dos riesgos significativos para las empresas en cuanto a la privacidad y seguridad de los datos:

  • Externo: donde los clientes comparten información confidencial que se almacena y (potencialmente) se utiliza o revela de manera incorrecta.
  • Interno: donde los empleados pueden revelar información confidencial de la empresa involuntariamente a través de comandos.

Si tu empresa utiliza datos de clientes para entrenar modelos, debes anonimizar estos datos primero. Existen varios métodos para elegir, como el enmascaramiento (reemplazar esta información con caracteres aleatorios equivalentes o datos falsos) o la tokenización (intercambiar información con un símbolo único).

En NETCONOMY, utilizamos la solución de Google «Data Loss Prevention»  para garantizar que toda la información personalmente identificable (PII) se identifique y anonimice automáticamente antes de alimentar nuestros modelos.

En el caso de los chatbots o asistentes de compras de IA generativa, existe un nivel adicional de riesgo, ya que estas soluciones a menudo manejan información crítica como los detalles de la tarjeta de crédito.

En estas situaciones, es crucial mantener esta información solo el tiempo necesario (por ejemplo, hasta que se envíen al proveedor de pagos) y asegurarse de que luego se elimine de los registros para evitar el acceso no autorizado.

Internamente, las empresas deben invertir en capacitar a su fuerza laboral (algo que ya mencionamos) y también proporcionar herramientas de IA generativa verificadas y conformes.

Las soluciones de IA generativa no desaparecerán, y no utilizarlas solo te impediría obtener grandes beneficios. En cambio, la pregunta que debes hacerte es: ¿cómo podemos hacer que estas herramientas estén disponibles internamente de manera segura?

Finalmente, la complejidad del panorama digital moderno complica aún más estos problemas de seguridad de datos. Por ejemplo, supongamos que deseas conectar tu solución de datos de clientes a una solución de IA generativa de otro proveedor.

En este caso, se aplican todos los consejos anteriores sobre anonimización. Pero como ahora tienes dos soluciones trabajando juntas, debes asegurarte de que se sigan estas pautas dos veces.

La situación puede volverse aún más compleja cuando consideras quién tiene acceso a ambas soluciones, si ambas se mantienen adecuadamente, y así sucesivamente..

Riesgos éticos de la IA generativa

Los desafíos éticos más significativos de la IA generativa para la sociedad en general están relacionados con deepfakes que son casi indistinguibles de la realidad. Sin embargo, los riesgos éticos para las empresas giran principalmente en torno a la posibilidad de recortes de empleo, un resultado común de las revoluciones tecnológicas.

El término «computadora» solía referirse a las personas que realizaban cálculos matemáticos largos y complejos para respaldar el trabajo científico o empresarial. Sin embargo, esto cambió significativamente con la introducción de las computadoras digitales.

Sin embargo, la actual revolución con IA generativa tiene el potencial de remodelar nuestro entorno laboral en pocos años en lugar de décadas. Esta línea de tiempo condensada pone una presión adicional sobre las empresas para asegurarse de no descuidar sus responsabilidades sociales más amplias en busca de ganancias.

Consideremos el ejemplo de los desarrolladores de software. Con la introducción de GitHub Copilot, las empresas pueden verse tentadas a creer que ya no necesitan desarrolladores junior.

Sin embargo, estas empresas pasan por alto el hecho de que años de experiencia práctica y conocimientos acumulados son cruciales para que las personas avancen en roles más senior, como arquitectos de software.

Al eliminar estos roles junior, las empresas corren el riesgo de perder este conocimiento vital y poner en peligro su éxito a largo plazo.

Los trabajos rutinarios son particularmente susceptibles al impacto de la IA, y las empresas deben planificar de manera proactiva el futuro facilitando la transición de estos trabajadores hacia roles que se alineen con sus habilidades y experiencias, o brindando oportunidades para el desarrollo de nuevas habilidades en nuevas posiciones.

Por último, debemos recordar que esta tecnología creará nuevos empleos que requerirán nuevas habilidades y métodos de trabajo que ni siquiera podemos imaginar, al igual que los «computadoras humanos» del pasado nunca pudieron haber previsto el trabajo de los modernos desarrolladores de software antes de la llegada de la primera computadora digital.

Propiedad intelectual y riesgos legales de la IA generativa

Dado que la mayoría de los modelos de IA generativa se entrenan utilizando una variedad de contenido de Internet, es lógico concluir que gran parte de ese contenido estará sujeto a protección de propiedad intelectual y derechos de autor.

Esto quedó dolorosamente claro cuando Getty demandó a Stability AI por supuestamente copiar más de 12 millones de sus fotos y usarlas para entrenar modelos de IA. Algo que fue fácilmente demostrable, ya que algunas imágenes producidas por el modelo de Stability también incluían la marca de agua de Getty.

Este ejemplo ilustra claramente por qué es arriesgado para las empresas utilizar contenido generado a partir de material con derechos de autor. Aunque tanto OpenAI como Google ahora ofrecen protección contra infracciones de derechos de autor a sus clientes, esto no elimina el problema.

Incluso al usar datos disponibles gratuitamente en Internet, surgen preguntas más amplias.

Consideremos un escenario en el que una empresa recopila datos del sitio web de un competidor y utiliza un modelo de IA para reducir automáticamente sus precios en tiempo real.

Aunque esta información no está protegida por derechos de autor, surge la pregunta de si debemos respaldar este tipo de comportamiento empresarial.

Podrías decir que lo mismo se puede hacer manualmente mediante la verificación regular del sitio web de un competidor y la actualización de tus propios precios. Pero la escala y velocidad a la que la IA generativa puede lograr esto introduce implicaciones sociales más amplias.

Actualmente, la industria es similar a un patio de recreo con muchas áreas grises, y las empresas se preguntan si su caso de uso podría violar futuras regulaciones.

Por lo tanto, tener el socio adecuado para ayudar a navegar y señalar posibles desafíos y riesgos que puedan surgir en el futuro se vuelve primordial.

Reflexiones Finales sobre los Riesgos de la IA Generativa para los Negocios

En conclusión, es esencial reconocer que toda nueva tecnología, incluida la IA generativa, conlleva riesgos inherentes. Estos riesgos, que incluyen la seguridad de los datos, preocupaciones éticas y problemas de propiedad intelectual, plantean desafíos significativos.

Sin embargo, esto no significa que las empresas deban evitar el uso de modelos de IA generativa y sus numerosos beneficios, todo lo contrario.

Deben familiarizarse con sus capacidades, limitaciones y mecanismos subyacentes. Al hacerlo, podrán gestionar mejor los riesgos y garantizar que su uso de la IA generativa se alinee con las expectativas sociales y legales.

 

Share:

Autores y colaboradores

Boban Djordjevic | Development Lead, NETCONOMY

Como parte de nuestro equipo de aprendizaje automático, Boban es responsable de gestionar iniciativas relacionadas con datos e inteligencia artificial, brindando apoyo en actividades previas a la venta al proporcionar aportes técnicos, diseñar arquitecturas de alto nivel y respaldar a los clientes en la elección del enfoque de solución adecuado.

Manuela Fritzl | Experience Management Consulting Lead, NETCONOMY

En NETCONOMY, Manuela es responsable del área de gestión de experiencias. Esto incluye desde la investigación de tendencias, usuarios y temas, hasta la planificación y creación de programas de gestión de experiencias.

Nikola Pavlovic | Content Marketing Manager, NETCONOMY

Nikola es un profesional experimentado en contenido y comunicación que cree que contar historias poderosas es clave para construir marcas, educar a las audiencias y diseñar campañas de marketing que den resultados.