En el mundo se crean cada día más de 328 millones de terabytes de datos y, según Statista, para 2025 el volumen global de información superará los 180 zettabytes.
En Colombia, la Superintendencia de Industria y Comercio (SIC) recibió en 2024 más de 9.000 quejas por presunto uso indebido de datos personales. Estas cifras evidencian la urgencia de una pregunta clave: ¿cómo proteger la privacidad en la era de la inteligencia artificial (IA)?
El país avanza en un Proyecto de Ley Unificado de Inteligencia Artificial, que busca establecer reglas para el uso ético y seguro de estas tecnologías. La IA no es un único sistema, sino una suma de casos de uso muy distintos. No es lo mismo un asistente virtual que un algoritmo de diagnóstico médico o un software de reconocimiento facial. Mientras algunos solo requieren datos básicos (nombre, correo, dirección), otros analizan patrones de navegación, historial de consumo, ubicación geográfica o metadatos de interacción. En los casos más delicados, como en la salud, entran en juego datos biométricos, huellas faciales o frecuencia cardiaca.
En Colombia, la Ley 1581 de 2012 y el Decreto 1377 de 2013 rigen la protección de datos personales, sin importar la tecnología utilizada. Ahora, el Proyecto de Ley Unificado de IA, impulsado por el Gobierno nacional, busca consolidar un marco integral que aborde específicamente el tratamiento de información sensible, como la voz, la imagen o la biometría. “La iniciativa pretende que el consentimiento de los usuarios sea informado y que se realicen evaluaciones de impacto antes de implementar sistemas basados en IA”, explica Lorenzo Villegas, socio de la firma CMS Rodríguez-Azuero.
Avances normativos en Colombia y el mundo
A este esfuerzo se suma la Circular Externa 002 de 2024, que exige a las empresas análisis previos de riesgos, transparencia en el uso de datos y autorización expresa cuando se trate de información sensible. Con ello, Colombia busca blindar la privacidad en un entorno donde los datos se procesan a una velocidad sin precedentes.
La discusión es global. En 2024, el Consejo de Europa abrió a firma el primer tratado vinculante sobre IA y derechos humanos. India debate reformas para frenar los deepfakes, mientras que el Reino Unido trabaja en controlar tecnologías biométricas. En Latinoamérica, Brasil y Chile actualizan sus marcos legales, con especial atención a los sectores de salud y finanzas. Estas experiencias internacionales pueden servir de guía para Colombia.
Responsabilidad empresarial y confianza del usuario
El uso masivo de datos en internet, los deepfakes y la falta de claridad en los procesos de decisión de la IA son riesgos latentes. “Estos posibles riesgos están sujetos a medidas de mitigación efectivas que se concretan en el cumplimiento de la ley local sobre protección de datos y en las iniciativas de autorregulación de cada empresa”, agrega Villegas.
Por ello, las compañías deben ir más allá del simple cumplimiento normativo. La adopción de estándares internacionales, políticas de transparencia, ciberseguridad y no discriminación serán claves para mantener la confianza de los consumidores. En un futuro con reglas más estrictas, las organizaciones que integren estos principios estarán mejor preparadas.
El reto es equilibrar innovación y derechos. La privacidad no puede darse por sentada: requiere normas sólidas, vigilancia constante y compromiso ético. Solo así se podrá proteger lo más valioso en la economía digital: la confianza de los ciudadanos.
¿Su empresa ya evalúa el impacto de la IA en la privacidad de los usuarios? Comparta este artículo y abra el debate.
#ProtecciónDeDatos #InteligenciaArtificialSegura
___________________________________
Foto de apoyo creada por rawpixel.com en Freepik
Botón de CTA creado por Grafixpoint en Freepik