Compartir datos confidenciales en empresas a través de Chat GPT
La inteligencia artificial, “la IA”, no es algo de hoy. Los chatbots han sido una de las herramientas tecnológicas más utilizadas por las empresas para su CRM en los últimos años, permitiéndoles responder rápidamente a las solicitudes de los clientes y mejorar su eficiencia operativa.
Según Forester, se espera que el gasto en software de IA casi se duplique, pasando de 33 mil millones de dólares (31 mil millones de euros) en 2021 a 64 mil millones de dólares (60 mil millones de euros) en 2025, una aceleración mucho más rápida que la del mercado global de software.
Sin embargo, con la aparición de modelos de procesamiento de lenguaje natural como Chat GPT, o incluso DALL-E-2, otra rama de OpenAI para la generación de imágenes, las empresas se enfrentan a nuevos riesgos en términos de seguridad de datos sensibles.
En este artículo, exploraremos los riesgos de usar Chat GPT en empresas en lo que respecta a datos sensibles y cómo las empresas pueden mitigar estos riesgos.
Riesgo de divulgación de datos sensibles en Chat GPT
Chat GPT utiliza el aprendizaje automático para generar respuestas a las preguntas realizadas por los usuarios. Esto significa que las respuestas generadas se basan en los datos que se han utilizado para alimentar/entrenar el algoritmo.
Si estos datos incluyen información sensible como datos de tarjetas de crédito o datos médicos, el uso de Chat GPT puede potencialmente exponer esta información sensible a terceros no autorizados.
Además, dado que Chat GPT puede aprender y adaptarse en tiempo real, existe el riesgo de que las respuestas generadas por el algoritmo se vuelvan cada vez más impredecibles e incoherentes con el tiempo. Los datos pueden así ser difundidos, adaptados y por lo tanto modificados.
Consecuencias de la exposición de datos sensibles
La exposición de datos sensibles puede tener graves consecuencias para las empresas, incluyendo responsabilidad legal, daño a la reputación de la marca y pérdida de confianza de los clientes.
Si se exponen los datos de los clientes, las empresas pueden ser responsables de cualquier uso indebido o fraudulento de esos datos. Además, las empresas que no protegen los datos de sus clientes pueden perder la confianza de estos y su reputación puede verse seriamente dañada.
Cómo mitigar los riesgos asociados al uso de Chat GPT
Las empresas pueden tomar varias medidas. Deben asegurarse de que los datos sensibles no se utilicen para entrenar el algoritmo de Chat GPT. Esto implica realizar labores de concienciación.
Luego, las empresas pueden limitar los tipos de datos que Chat GPT está autorizado a procesar y almacenar. Pueden implementar controles de acceso y políticas de seguridad para asegurar que solo las personas autorizadas tengan acceso a los datos sensibles.
Finalmente, pueden establecer procesos de monitoreo y gestión de riesgos para asegurarse de que cualquier incidente de seguridad se identifique y maneje rápidamente.
De la misma manera que con cualquier otra amenaza, para protegerse, las empresas deben realizar una auditoría para conocer su nivel de vulnerabilidad.
Los tests de penetración (o “pen testing”) son una forma efectiva de simular un ataque en sus sistemas o aplicaciones para identificar vulnerabilidades de seguridad que podrían ser explotadas por actores maliciosos.
En el contexto del auge de ChatGPT, estos tests son aún más importantes para garantizar la confidencialidad, integridad y disponibilidad de los sistemas.
Finalmente, otra medida, que algunas empresas ya han empezado a implementar, es la prohibición total de Chat GPT dentro de su organización. Un método que se puede considerar rígido y que probablemente se deba a un desconocimiento. ¿Es mejor prevenir que curar?
Siguiendo medidas de seguridad apropiadas, las empresas podrían sin embargo aprovechar Chat GPT para mejorar su eficiencia operativa mientras protegen los datos sensibles de sus clientes.
Así como hace algunos años los medios sociales estaban prohibidos en algunas empresas porque eran un mundo desconocido, hoy las empresas han aprendido a dominar y usar estas plataformas para su imagen, notoriedad y negocio.
Podemos pensar entonces que, tras la fase de descubrimiento, las empresas sabrán aprovechar esta herramienta. Sin embargo, es esencial asegurar sus datos y educar a sus colabor!
BLOG
El uso indebido de ChatGPT perjudica el rendimiento académico y provoca pérdida de memoria
El uso generalizado de inteligencia artificial generativa, como ChatGPT, en el ámbito académico está generando preocupación creciente entre investigadores y educadores. Aunque muchos estudiantes consideran esta tecnología una solución rápida...
ChatGPT: La IA es más humana que algunos estudiantes, según demuestra este sorprendente estudio
Cuando se evalúan las capacidades de grandes modelos de lenguaje como ChatGPT, la mayoría de los estudios se centran en su habilidad para extraer información fáctica, ejecutar razonamientos lógicos o...
ChatGPT dice cualquier cosa sobre los internautas y es atacado
Se avecinan nuevos problemas para OpenAI, la empresa detrás de ChatGPT. El activista austriaco Max Schrems, conocido por su activismo contra los gigantes de internet en cuestiones de datos personales,...
La doble amenaza que ChatGPT representa para los secretos corporativos
Una vez que aprenden a usarlo, cada vez más empleados están utilizando ChatGPT para simplificar sus tareas, como responder correos electrónicos, preparar presentaciones o codificar software. Según Cyberhaven, una empresa...
ChatGPT presenta una nueva característica interesante… de la cual Europa se ve privada
ChatGPT finalmente incorporará la función de “memoria”. Esta característica, útil para recordar detalles sobre usted, lamentablemente no estará disponible en Europa. OpenAI lo anunció y ya es una realidad: ChatGPT...
Quejas sobre ‘ChatGPT’: la CNPD recuerda los principios básicos
La CNPD no tiene previsto pronunciarse sobre la decisión de la autoridad italiana respecto al uso de ChatGPT. A medida que las quejas aumentan, señala que correspondería al regulador irlandés...