Riesgos y desafíos de protección de datos en el uso de ChatGPT
19/03/2025 – 10:41AM | Meridia Legaltech
El sector empresarial atraviesa una profunda transformación, impulsada por la digitalización y el avance de nuevas tecnologías. Un ejemplo reciente de esta revolución es la integración de herramientas como WhatsApp, que cambió radicalmente la forma en que nos comunicamos. Sin embargo, esta adopción tecnológica también ha presentado retos significativos para las empresas, especialmente en el control de la información y la gestión segura de dispositivos móviles.
Aunque WhatsApp ya forma parte del ecosistema de muchas empresas, su uso sigue siendo una asignatura pendiente para algunas. La ausencia de políticas claras representa un riesgo que aún no se ha gestionado del todo. Este desafío se ha intensificado con la llegada de la inteligencia artificial (IA), que ofrece una amplia variedad de herramientas y tecnologías que facilitan las tareas diarias en las empresas. Sin embargo, estas soluciones tecnológicas también conllevan riesgos, ya que el intercambio de información empresarial y personal a través de estas herramientas podría comprometer la confidencialidad y privacidad de los datos de la empresa.
Entre estas tecnologías, ChatGPT (Generative Pre-trained Dialogue System) ha ganado popularidad en el último año. Esta herramienta basada en inteligencia artificial ofrece un sinfín de posibilidades para las empresas, desde la mejora en la atención al cliente y la automatización de tareas hasta la creación de contenido para redes sociales. No obstante, el uso de ChatGPT no está exento de riesgos, especialmente en términos de protección de datos y cumplimiento normativo.
ChatGPT: beneficios y riesgos de su uso
La capacidad de ChatGPT para generar respuestas coherentes y elaborar textos prácticamente indistinguibles de los escritos por seres humanos, lo convierte en una herramienta excepcional para mejorar la interacción con los clientes y la eficiencia operativa en diversos áreas de la empresa.
Gracias a estas ventajas, muchas empresas y empleados han adoptado ChatGPT sin considerar plenamente sus implicaciones en términos de protección de datos y confidencialidad. Según un estudio de UBS, se estima que ChatGPT alcanzó los 100 millones de usuarios en enero de este año, tan solo dos meses después de su lanzamiento.
Es evidente que muchos de estos usuarios pertenecen a diversos sectores, incluyendo probablemente empleados de tu propia empresa. Sin embargo, muchas personas prefieren no mencionar abiertamente que utilizan ChatGPT, debido a dos motivos principales:
- Temor a la desaprobación por parte de la empresa: algunos empleados evitan admitir que usan herramientas como ChatGPT, preocupados por la reacción de sus superiores.
- Inseguridad laboral: la posibilidad de que su trabajo sea considerado fácilmente reemplazable por una máquina genera una resistencia natural a hablar del tema.
Dada esta realidad, las empresas tienen la responsabilidad de conocer y comprender los riesgos asociados al uso de ChatGPT para garantizar el cumplimiento normativo y proteger sus datos sensibles. Una manera sencilla de comenzar es preguntar directamente a la herramienta:
«¿Qué riesgos tiene para una empresa el uso de ChatGPT?»
Al realizar esta consulta, ChatGPT identificó los siguientes puntos clave: “El uso de ChatGPT en una empresa conlleva algunos riesgos potenciales que deben ser considerados. A continuación, se mencionan algunos de ellos:
- Privacidad y confidencialidad: ChatGPT procesa y genera respuestas en base a la información proporcionada, lo que implica que los datos ingresados pueden ser almacenados y utilizados para mejorar el modelo. Existe el riesgo de que la información confidencial de la empresa o de los clientes pueda ser comprometida si no se toman medidas adecuadas para garantizar la seguridad de los datos.
- Calidad y precisión de las respuestas: Aunque ChatGPT es capaz de generar un texto coherente y preciso en muchos casos, puede haber situaciones en las que las respuestas no sean completamente precisas o apropiadas. Existe el riesgo de proporcionar información incorrecta o de no cumplir con las expectativas de los usuarios, lo que podría afectar la reputación de la empresa.
- Dependencia excesiva de la tecnología: Si una empresa depende demasiado de ChatGPT para tareas críticas, existe el riesgo de que surjan problemas si el sistema falla o no está disponible. Es importante tener planes de contingencia y alternativas en caso de que el sistema no pueda ser utilizado temporalmente.
- Eticidad y sesgos: Los modelos de lenguaje, como ChatGPT, aprenden de grandes cantidades de datos que pueden contener sesgos o prejuicios. Existe el riesgo de que las respuestas generadas por ChatGPT reflejen sesgos indeseables o discriminatorios. Es importante evaluar y mitigar estos sesgos para garantizar una utilización ética y equitativa de la tecnología.
- Pérdida de interacción humana: Si ChatGPT se utiliza como reemplazo completo de la interacción humana en ciertos aspectos del negocio, existe el riesgo de perder la conexión personal y la empatía que solo los seres humanos pueden proporcionar. Es fundamental encontrar un equilibrio entre la automatización y la interacción humana para brindar la mejor experiencia posible a los clientes.
Para mitigar estos riesgos, es importante implementar medidas de seguridad y privacidad, realizar pruebas y validaciones rigurosas, capacitar al personal en el uso adecuado de la tecnología y tener en cuenta aspectos éticos al desarrollar y utilizar ChatGPT en la empresa.“
Como hemos podido observar, las respuestas generadas por ChatGPT pueden ser sorprendentes y contener información útil para la toma de decisiones en diversos procesos de la empresa. Sin embargo, es importante tener en cuenta que estas respuestas se generan de forma automática. Esto significa que, en algunas ocasiones, la información proporcionada podría no ser completamente precisa e incluso errónea.
Por este motivo, es esencial y recomendable verificar siempre la información generada, considerando diferentes fuentes y perspectivas antes de llegar a conclusiones basadas únicamente en las respuestas proporcionadas por el modelo.
Riesgos en la protección de datos y la confidencialidad en el uso de ChatGPT
Existen ciertos riesgos en los que ChatGPT podría omitir información relevante en sus respuestas. Es importante tener en cuenta que ChatGPT fue programado y entrenado por OpenAI, y se encuentra actualizado hasta septiembre de 2021. Esto implica que el modelo puede no estar al tanto de eventos recientes, como por ejemplo la prohibición temporal del uso de ChatGPT en Italia en marzo de 2023 debido a problemas de transparencia en la recopilación y tratamiento de datos personales, así como la falta de filtros de edad adecuados. No obstante, cabe destacar que ChatGPT ha vuelto a estar disponible en Italia después de que OpenAI abordara las preocupaciones planteadas.
Asimismo, ChatGPT no informará sobre eventos actuales relacionados con la regulación de la privacidad de datos. Por ejemplo, en España, la Agencia de Protección de Datos (AEPD) ha iniciado una investigación por posibles incumplimientos normativos relacionados con la herramienta. Además, se ha solicitado al Comité Europeo de Protección de Datos (EDPB) que aborde el tema de ChatGPT en su próxima reunión plenaria, buscando una acción coordinada a nivel europeo.
Como resultado de las preocupaciones planteadas, el Comité Europeo de Protección de Datos (EDPB) ha establecido un grupo de trabajo para fomentar la cooperación y el intercambio de información entre las autoridades de protección de datos en relación con posibles acciones de cumplimiento. Sin embargo, hasta el momento, este organismo no se ha pronunciado al respecto. Es muy importante que las empresas implementen políticas claras que informen a los usuarios de ChatGPT sobre la necesidad de evitar incluir datos personales o confidenciales en las consultas realizadas. Al interactuar con ChatGPT, existe el riesgo de que la herramienta pueda aprender de la información proporcionada y utilizarla en conversaciones posteriores con otros usuarios. Esto podría comprometer la confidencialidad de esos datos, exponiendo a la empresa a posibles infracciones de privacidad.
Para mitigar este riesgo, es fundamental que las empresas formen adecuadamente a sus empleados y usuarios sobre la importancia de no compartir información personal o confidencial durante las interacciones con ChatGPT. Además, es necesario que las empresas establezcan expectativas realistas y comprendan que ChatGPT no puede reemplazar completamente la intervención humana Si bien es una herramienta poderosa, requiere supervisión y verificación por parte de los seres humanos para garantizar que su uso no comprometa la seguridad o privacidad de los datos.
Responsabilidad de las empresas ante el uso de ChatGPT
Si una empresa no está al tanto de los cambios tecnológicos y no establece regulaciones adecuadas para el uso de herramientas como ChatGPT, podría enfrentar riesgos similares a los que experimentó Samsung. En el caso de la compañía coreana, se produjo una brecha de seguridad cuando algunos de sus empleados compartieron información confidencial, como el código fuente de un software, protocolos de detección de chips defectuosos y notas de reuniones, que posteriormente fue transmitida a empresas estadounidenses. Como consecuencia, Samsung decidió desarrollar su propia herramienta para evitar futuros riesgos relacionados con el uso de aplicaciones de terceros. Sin embargo, no todas las empresas tienen la capacidad de desarrollar sus propias herramientas, y tampoco es viable prohibir por completo el uso de aplicaciones como ChatGPT. Por ello, nuestra recomendación es adaptarse a esta nueva realidad y establecer políticas claras y procedimientos específicos que regulen su uso de manera responsable.
La falta de políticas claras y de formación adecuada del personal pueden llevar a un uso incorrecto de estas herramientas, lo que pone en riesgo a la empresa. Por ejemplo, hacer pública información personal sin cumplir con la normativa vigente de protección de datos en España puede ser considerado como una brecha de seguridad y podría acarrear daños reputacionales y sanciones económicas significativas.
La evolución tecnológica y su impacto
Es importante que todas las empresas se preparen para el uso de ChatGPT y otras tecnologías emergentes, sin temor a afrontarlo. A lo largo de la historia, cada avance tecnológico ha generado inquietudes y preguntas sobre si la inteligencia artificial (IA) reemplazará a las personas en sus trabajos. Sin embargo, la experiencia nos ha demostrado que, en lugar de reemplazar a los profesionales, estas herramientas han mejorado la eficiencia y calidad de su trabajo.
Un claro ejemplo de esto es la invención de la calculadora, que en su momento alarmó a los matemáticos se alarmaron, ya que temían que sus puestos de trabajo estuvieran en peligro. Sin embargo, rápidamente se dieron cuenta que la calculadora les permitía realizar sus tareas de forma más eficiente y rápida, liberando tiempo para enfocarse en tareas más complejas y creativas.
Cada vez que un robot, una inteligencia artificial o un automatismo reemplaza a un trabajador humano, nace un nuevo escenario de relaciones entre la tecnología y la humanidad. Esto ha dado lugar a una creciente demanda de profesionales habilidades blandas (soft skills), como la inteligencia emocional, el pensamiento crítico, el liderazgo, la resiliencia y la gestión del cambio. Estas habilidades son ahora esenciales, ya que son las que permiten a los profesionales adaptarse a un entorno laboral cada vez más automatizado y colaborativo con la tecnología.
Adaptación a la tecnología: nuevas oportunidades y la importancia de las habilidades blandas
La evolución constante de las tecnologías puede llevar a la automatización de empleos existentes, pero también abre la puerta a nuevas oportunidades laborales que aún desconocemos. Es esencial adaptarnos a los cambios actuales para poder evolucionar junto con nuestra profesión, adquiriendo habilidades que estén en línea con las nuevas tecnologías emergentes. Aunque es cierto que algunos empleos podrían desaparecer, nuestra capacidad de mantenernos actualizados y estar dispuestos a aprender nos permitirá aprovechar las nuevas oportunidades y asegurar nuestra empleabilidad en un entorno laboral en constante transformación.
Por ello, es crucial encontrar un equilibrio y no caer en la creencia de que las herramientas tecnológicas pueden reemplazar por completo a las personas en el ámbito laboral. Tecnologías como ChatGPT carecen de una comprensión profunda del mundo, de empatía y de habilidades humanas clave, como la creatividad y el pensamiento crítico. Además, la toma de decisiones complejas, la innovación y la consideración ética requieren la participación humana.
Debemos afrontar esta tecnología como una herramienta complementaria para agilizar tareas rutinarias, liberando tiempo y recursos humanos para actividades que requieren habilidades humanas únicas. La combinación de inteligencia artificial y capacidades humanas puede llevar a resultados más efectivos en el entorno empresarial actual.