La Inteligencia Artificial (IA) forma parte cada vez más de nuestros lugares de trabajo y de nuestra vida cotidiana a un ritmo sin precedentes. En concreto, la IA pública -aquella que se pone a disposición del uso general, a menudo de forma gratuita- se está convirtiendo en predominante. Es entonces cuando la privacidad de los datos se convierte en un riesgo.
Con la creciente inversión de las grandes empresas tecnológicas en IA y chatbots, como ChatGPT de OpenAI, Bing AI de Microsoft, Bard de Google y el plan de Elon Musk para su propio chatbot, la IA generativa se está infiltrando en las empresas.
Sin embargo, como ocurre con cualquier tecnología emergente, conlleva tanto ventajas como riesgos.
Privacidad de datos: riesgos ocultos en el uso de la IA pública
Uno de los riesgos más importantes y debatidos de la IA pública es la privacidad de los datos.
Cuando compartimos nuestros datos con una IA pública, existe el riesgo de que estos datos puedan ser utilizados o potencialmente mal utilizados.
La Inteligencia Artificial tiene la capacidad de recopilar, analizar y utilizar una cantidad significativa de datos, a menudo sin el consentimiento explícito del usuario.
En la práctica, los empleados recurren a la IA generativa para facilitar su trabajo, incluso cuando esta tecnología no cuenta con la aprobación de los responsables de TI o de la empresa.
Esto se debe a que consideran útiles estas tecnologías y, por tanto, están dispuestos a pagar por ellas, al igual que compraban teléfonos móviles y ordenadores personales incluso antes de que las empresas ofrecieran estos dispositivos.
Esto lleva a un escenario en el que la Inteligencia Artificial se está utilizando de maneras que no están totalmente reguladas o controladas, lo que lleva a potenciales problemas de privacidad de datos.
Retos de seguridad en la era de la IA
Las brechas de seguridad son otro riesgo importante del uso de IA pública.
La Inteligencia Artificial es susceptible de sufrir filtraciones de datos y ciberataques, como cualquier otra tecnología digital.
En un mundo en el que la IA está cada vez más presente en el lugar de trabajo, los responsables de seguridad de la información (CISO) deben abordar esta tecnología con cautela y preparar las medidas de seguridad necesarias.
El difícil camino de garantizar la seguridad y proteger la privacidad de los datos
En otras palabras, las empresas deben aprovechar las lecciones aprendidas de la seguridad de la información tradicional y aplicarlas a la Inteligencia Artificial.
Por ejemplo, las empresas pueden autorizar el uso de una plataforma de IA ya existente para poder supervisar lo que los empleados dicen a un chatbot y asegurarse de que la información compartida está protegida.
Este enfoque viene acompañado de controles y equilibrios adicionales, como la protección de la información confidencial, la regulación del lugar donde se almacena la información y las directrices sobre cómo pueden utilizar el software los empleados.
Navegar por el laberinto ético y jurídico de la inteligencia artificial pública
Además de los riesgos para la seguridad y la privacidad de los datos, también hay problemas éticos.
En el universo en constante evolución de la IA pública, los riesgos éticos y las implicaciones legales van de la mano.
Las empresas que adoptan la Inteligencia Artificial deben mantenerse informadas y ser conscientes de ambas dimensiones para garantizar un uso seguro y responsable de la tecnología.
Desde un punto de vista ético, las IA públicas como ChatGPT de OpenAI se alimentan de vastos conjuntos de datos que pueden incluir información personal o sensible.
Para mitigar estos riesgos, las empresas deben aplicar directrices claras sobre el tipo de datos que pueden compartirse con la tecnología y ofrecer formación periódica a los empleados sobre prácticas seguras de intercambio de datos.
Si se hace un mal uso de los datos, la IA pública puede utilizarlos con fines discriminatorios o para reforzar prejuicios ya existentes.
Desde un punto de vista legal, compartir datos con Inteligencia Artificial pública entra en conflicto con normativas de protección de datos como el Reglamento General de Protección de Datos (GDPR) de la Unión Europea y la Ley General de Protección de Datos (LGPD) de Brasil.
El incumplimiento de estas obligaciones puede acarrear importantes sanciones. Por lo tanto, las empresas deben asegurarse de que cualquier interacción con la Inteligencia Artificial cumple esta normativa.
Esto puede incluir la obtención del consentimiento explícito de los usuarios para el uso de sus datos y la aplicación de medidas de seguridad adecuadas para protegerlos.
He aquí algunas medidas prácticas que las empresas pueden adoptar para un uso seguro de la IA pública:
Licencias de software
:
Licencia el uso de una plataforma de IA existente, que les permite supervisar lo que los empleados dicen a un chatbot y garantizar la protección de la información compartida.
Esto también ofrece protección adicional a través de los controles y equilibrios adicionales que son un procedimiento estándar a la hora de conceder licencias de software.
- Desarrollo de IA personalizada:
Considera la posibilidad de crear tus propias IA, lo que te permitiría controlar los datos que se introducen en la IA y cómo se utilizan. A pesar de su elevado coste, puede ser una opción.
- Educación y formación:
Impartir formación periódica a los empleados sobre prácticas seguras de intercambio de datos y el uso responsable de la IA también forma parte de las iniciativas de protección.
- Auditoría y cumplimiento:
Auditar periódicamente el uso de la IA para garantizar que cumple todas las leyes y normativas pertinentes sobre protección de datos.
- Transparencia y consentimiento:
Sea transparente con los usuarios sobre cómo se utilizan sus datos y obtenga su consentimiento explícito antes de compartirlos con la IA.
Fomentar una cultura de uso responsable y seguro de la inteligencia artificial
Compartir datos con la IA pública puede reportar muchos beneficios, entre ellos una mayor eficiencia y capacidad de procesamiento. Sin embargo, también existen riesgos importantes, como la preocupación por la privacidad, la seguridad y la ética.
Las empresas y los particulares deben ser conscientes de estos riesgos y tomar medidas para mitigarlos.
Como hemos visto a lo largo del artículo, las empresas deberían, por ejemplo, plantearse crear sus propias IA, lo que les permitiría tener control sobre los datos que se introducen en la Inteligencia Artificial y sobre cómo se utilizan esos datos.
Además, es esencial que las empresas se mantengan al día de la normativa sobre protección de datos y garanticen su cumplimiento.
Por último, es fundamental que sigamos formándonos y formando a los demás sobre los riesgos y beneficios de compartir datos con la IA pública. Sólo mediante la educación y la concienciación podremos garantizar un uso responsable y ético de la IA.
Acerca de Eval
Eval lleva más de 18 años desarrollando proyectos en los segmentos financiero, sanitario, educativo e industrial. Desde 2004, ofrecemos soluciones de autenticación, firma electrónica y digital y protección de datos. Actualmente estamos presentes en los principales bancos brasileños, instituciones sanitarias, escuelas y universidades, así como en diferentes industrias.
Las soluciones y servicios de Eval cumplen las normas reglamentarias más exigentes de organismos públicos y privados, como SBIS, ITI, PCI DSS y LGPD (Ley General de Protección de Datos). En la práctica, fomentamos la seguridad y el cumplimiento de la normativa en materia de información, el aumento de la eficacia operativa de las empresas y la reducción de costes.
Innova ahora, lidera siempre: descubre las soluciones y servicios de Eval y lleva a tu empresa al siguiente nivel.
Eval, la seguridad es un valor.