Los líderes legales y de cumplimiento enfrentan la responsabilidad de evaluar los riesgos asociados con ChatGPT y establecer medidas adecuadas para un uso responsable de estas herramientas de inteligencia artificial generativa.
Gartner, Inc., una reconocida firma de investigación y consultoría, ha identificado seis riesgos críticos que los líderes legales y de cumplimiento deben abordar al utilizar ChatGPT y otras herramientas de modelo de lenguaje (LLM) similares. Estos riesgos pueden exponer a las organizaciones a consecuencias legales, de reputación y financieras si no se toman las precauciones adecuadas.
El primer riesgo radica en la generación de respuestas fabricadas e inexactas. Aunque ChatGPT puede proporcionar información plausible superficialmente, también es propenso a generar respuestas incorrectas o incluso inventadas. Por lo tanto, es fundamental que los líderes legales y de cumplimiento emitan pautas que exijan a los empleados revisar y verificar la precisión de los resultados generados antes de aceptarlos.
El segundo riesgo está relacionado con la privacidad y confidencialidad de los datos. Si no se deshabilita el historial de chat, cualquier información ingresada en ChatGPT puede convertirse en parte de los conjuntos de datos de capacitación. Esto implica que datos confidenciales, patentados u organizacionales podrían incorporarse en las respuestas generadas y ser utilizados fuera de la empresa. Para abordar este riesgo, es necesario establecer un marco de cumplimiento que prohíba la introducción de datos sensibles en herramientas públicas de LLM.
El tercer riesgo se refiere al sesgo y modelo de salida. Aunque se han realizado esfuerzos para minimizar el sesgo y la discriminación en ChatGPT, existen casos conocidos de estos problemas y es probable que persistan. Los líderes legales y de cumplimiento deben mantenerse actualizados sobre las leyes relacionadas con el sesgo de la IA y colaborar con expertos en la materia para establecer controles de calidad de datos y auditorías que garanticen la confiabilidad de los resultados generados.
El cuarto riesgo involucra los riesgos de propiedad intelectual (P.I.) y derechos de autor. Dado que ChatGPT se entrena con una amplia cantidad de datos de Internet, existe la posibilidad de que sus resultados infrinjan derechos de autor o protecciones de propiedad intelectual. Los líderes legales y de cumplimiento deben vigilar de cerca los cambios en la legislación de derechos de autor y exigir que los usuarios revisen las salidas generadas para evitar cualquier infracción.
El quinto riesgo abarca los riesgos de fraude cibernético. Los actores malintencionados ya están aprovechando ChatGPT para generar información falsa a gran escala, como reseñas falsas. Además, las aplicaciones que utilizan modelos LLM son susceptibles a la inyección rápida, una técnica de piratería que engaña al modelo para realizar tareas no previstas. Los líderes legales y de cumplimiento deben colaborar con los propietarios de riesgos cibernéticos y emitir memorandos al personal de ciberseguridad, además de realizar auditorías para garantizar la calidad de la información utilizada.
El sexto riesgo se centra en los riesgos de protección al consumidor. Las organizaciones que utilizan ChatGPT, especialmente en forma de chatbots de atención al cliente, deben revelar claramente a los consumidores que están interactuando con un bot. La falta de transparencia en este aspecto puede resultar en la pérdida de confianza de los clientes y acusaciones de prácticas desleales. Los líderes legales y de cumplimiento deben asegurarse de cumplir con las regulaciones y leyes pertinentes y realizar las revelaciones adecuadas a los consumidores.
En conclusión, los líderes legales y de cumplimiento enfrentan el desafío de evaluar y mitigar los riesgos asociados con el uso de ChatGPT. Al abordar los riesgos de respuestas inexactas, privacidad de datos, sesgo, propiedad intelectual, fraude cibernético y protección al consumidor, se pueden establecer medidas adecuadas para un uso responsable de estas herramientas de inteligencia artificial generativa. La evaluación y mitigación de estos riesgos son fundamentales para evitar consecuencias legales, reputacionales y financieras para las organizaciones.
Con información de: www.gartner.com