La IA generativa en el trabajo: riesgos de privacidad y seguridad que debes conocer


La Newsletter de Gustavo Reija - Economista y CEO de NETIA GROUP
4 informes exclusivos cada mes, con el análisis de las tendencias macroeconómicas y políticas con perspectivas sobre mercados financieros y su impacto en la industria. Recomendaciones estratégicas para inversores y empresarios.
Suscripción con MERCADOPAGO
Las herramientas de inteligencia artificial generativa, como ChatGPT de OpenAI y Copilot de Microsoft, se están convirtiendo rápidamente en parte de la vida cotidiana de las empresas. Sin embargo, su rápida evolución ha generado preocupaciones sobre los posibles problemas de privacidad y seguridad que pueden surgir en el entorno laboral.
Preocupaciones sobre la privacidad
Recientemente, la nueva herramienta Recall de Microsoft ha sido calificada como una "pesadilla para la privacidad" por su capacidad para realizar capturas de pantalla de la laptop cada pocos segundos. Esto ha llamado la atención de la Oficina del Comisionado de Información del Reino Unido (ICO), que ha solicitado a Microsoft más detalles sobre la seguridad del producto.
Asimismo, ChatGPT de OpenAI ha demostrado su capacidad para realizar capturas de pantalla en su próxima aplicación para macOS, lo que podría resultar en la captura de datos sensibles. Estas preocupaciones han llevado a la Cámara de Representantes de EE.UU. a prohibir el uso de Copilot de Microsoft entre los miembros del personal, considerándolo un riesgo para los usuarios.

Riesgos de exponer datos confidenciales
Uno de los mayores desafíos para quienes utilizan IA generativa en el trabajo es el riesgo de exponer inadvertidamente datos confidenciales. La mayoría de los sistemas de IA generativa absorben enormes cantidades de información de internet para entrenar sus modelos de lenguaje, lo que significa que existe la posibilidad de que se introduzca información sensible en el ecosistema de otra persona y se extraiga más tarde mediante una provocación inteligente.
Además, los propios sistemas de IA podrían convertirse en objetivo de los piratas informáticos, quienes podrían desviar datos confidenciales, plantar resultados falsos o engañosos, o utilizar la IA para propagar malware.
Medidas para mejorar la privacidad y la seguridad
Aunque la IA generativa plantea varios riesgos potenciales, hay medidas que las empresas y los empleados pueden tomar para mejorar la privacidad y la seguridad:
1. Evitar incluir información confidencial en preguntas a herramientas de acceso público como ChatGPT o Gemini de Google.
2. Ser genérico al elaborar propuestas para evitar compartir demasiada información.
3. Utilizar la IA como primer borrador y luego añadir la información confidencial necesaria.
4. Validar la información proporcionada por la IA y pedir referencias y enlaces a sus fuentes.
5. Configurar correctamente las herramientas de IA y aplicar el concepto de "mínimo privilegio".
6. Tener en cuenta que ChatGPT utiliza los datos compartidos para entrenar sus modelos, a menos que se desactive en la configuración o se use la versión para empresas.
Las empresas que integran la IA generativa en sus productos afirman que hacen todo lo posible para proteger la seguridad y la privacidad, pero a medida que estos sistemas se vuelvan más sofisticados y omnipresentes en el lugar de trabajo, los riesgos no harán sino intensificarse.
En conclusión, es fundamental que tanto las personas como las empresas traten la IA como cualquier otro servicio de terceros y eviten compartir información que no quieran que se difunda públicamente. La IA generativa ha llegado para quedarse, pero es esencial estar conscientes de los riesgos y tomar las medidas necesarias para salvaguardar la privacidad y la seguridad en el entorno laboral.
La inteligencia artificial y la demanda de energía: ¿la nueva crisis invisible del siglo XXI?
GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma
Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso
Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.
Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar
Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global
Fallo YPF: Milei festeja una victoria judicial que le da la razón a Kicillof y contradice dos años de su propio relato


