
Volver a la vista general
04 de marzo de 2025
Trabajar de forma segura con Copilot: por qué es crucial etiquetar los datos
La IA y la privacidad no siempre van de la mano, especialmente cuando se trata de datos sensibles. Microsoft Copilot no puede ni quiere tener en cuenta la naturaleza de los datos sensibles si no están correctamente etiquetados. Esto puede conllevar riesgos en términos de calidad de los datos, privacidad e incluso desventajas socioeconómicas. ¿Cómo pueden las organizaciones, como los ayuntamientos, prepararse para esto? ????
???? Los riesgos de los datos mal etiquetados
-
La IA no ve diferencias sin etiquetas ????️
Copilot procesa los datos sin distinguir entre datos ordinarios y sensibles, a menos que se marquen explícitamente como tales. Esto significa que los datos personales o los documentos confidenciales pueden aparecer sin más en los análisis. -
La información obsoleta aumenta los riesgos ⏳
Muchas organizaciones, especialmente los municipios, conservan datos obsoletos. La Evaluación de Impacto sobre la Protección de Datos (EIPD) advierte de que esto puede dar lugar a que se procesen datos inexactos, con consecuencias nefastas. -
Problemas de privacidad con las solicitudes de inspección ????
Los ciudadanos tienen derecho a saber qué datos se están procesando sobre ellos. Pero si se utiliza Copilot para gestionar estas solicitudes, puede producir resultados incompletos o incomprensibles. Esto socava el principio de transparencia. -
Pérdida de control sobre los datos ⚠️
Cuando las organizaciones confían demasiado en la IA sin control humano, los datos sensibles pueden compartirse involuntariamente o malinterpretarse. Esto puede tener incluso consecuencias socioeconómicas, por ejemplo si una información errónea conduce a decisiones equivocadas sobre prestaciones o subsidios.
✅ ¿Cómo evitar estos riesgos?
???? Clasificar y etiquetar los datos: Asegúrate de que los datos sensibles están correctamente etiquetados para que los sistemas de IA puedan tenerlos en cuenta.¹
???? Limpia regularmente los datos obsoletos: Elimina los datos innecesarios y erróneos para mejorar la calidad de los datos.²
???? Control y validación humanos: No dejes que la IA tome decisiones no supervisadas sobre información sensible.³
???? Aplica políticas DLP: Utiliza soluciones de Prevención de Pérdida de Datos (DLP) para evitar que se comparta o se filtre información sensible de forma no deseada.⁴
???? Formación y concienciación: Asegúrate de que los empleados entienden cómo funciona la IA y los riesgos que conlleva manejar datos sensibles desde el punto de vista de la privacidad.
???? Revisar la política de privacidad: Adaptar las directrices internas sobre el uso de la IA y garantizar una DPIA al implantar herramientas como Copilot.
???? Conclusión
Copilot ofrece muchas ventajas, pero sin estrategias adecuadas de gestión de datos, también puede plantear riesgos. Los municipios⁵ y otras organizaciones deben tener en orden su gestión de la información y etiquetar correctamente los datos sensibles para evitar problemas de privacidad y decisiones erróneas de la IA. Al fin y al cabo, la IA es inteligente, pero no sin orientación humana. ????????
???? ¿Cómo gestiona tu organización la IA y los datos sensibles?
Referencias
²https://alta-ict.nl/blog/lifecycle-management-in-microsoft-365-en-azure/
³https://alta-ict.nl/blog/hoe-werkt-microsoft-purview-insider-risk-management/
⁴https://alta-ict.nl/blog/bescherm-je-gevoelige-data-met-dlp-in-microsoft-365/
⁵https://alta-ict.nl/blog/moet-je-je-ai-copilot-gebruik-beperken-microsoft-zegt-van-wel/
Sobre el autor
Me llamo Alta Martes y soy especialista en Microsoft 365 y Google Workspace, con especial atención a la gestión de puestos de trabajo modernos, la seguridad en la nube y la gestión de identidades y accesos. Con años de experiencia, ayudo a las organizaciones a optimizar su infraestructura informática y a crear un lugar de trabajo digital seguro y eficiente.
????
¿Necesitas ayuda con tu estrategia de Microsoft 365? Haz clic a continuación y descubre cómo podemos ayudar a tu organización:
¿Quieres saber más?
