Un nuevo dilema digital cotidiano.
Cada día generamos enormes cantidades de información personal. Cada persona produce alrededor de 61 gigabytes de datos diarios en 2025. Desde el primer mensaje de buenos días en el teléfono hasta la búsqueda nocturna en internet, nuestros dispositivos registran huellas digitales.
Efectivamente, estoy hablando de la avalancha de datos alimenta algoritmos de inteligencia artificial (la “IA“) que facilitan, desde alguna perspectiva, nuestra vida cotidiana, mediante aplicaciones que recomiendan la siguiente serie o canción, mapas que encuentran la ruta más rápida a casa, entre otros ejemplos que seguro vienen a tu mente en este momento.
El contraste es claro. Por un lado la IA nos brinda comodidades, pero por otro surge una pregunta crucial en el sentido de ¿estamos sacrificando nuestra privacidad en el proceso?. La recolección masiva de datos personales se ha vuelto el combustible de la economía digital; a medida que compartimos cada vez más detalles de nuestra vida en línea, crece la inquietud sobre quién utiliza esa información y con qué propósito.
Algoritmos inteligentes con apetito de datos.
Para que la IA funcione necesita datos en abundancia. Los algoritmos de aprendizaje automático se entrenan encontrando patrones en todo lo que hacemos en digital; por ejemplo, con nuestras compras, fotos, ubicación y más.
Cada clic en redes sociales alimenta ese perfil invisible que la tecnología construye sobre nosotros. Si alguna vez hablaste de un producto y luego apareció un anuncio de ese mismo artículo, no fue coincidencia, era la IA aprovechando tus datos. Para algunos usuarios es algo útil, para otros, es un signo inquietante de vigilancia constante; ninguno nada fuera de la realidad.
Riesgos reales para la privacidad.
Esa sensación de estar siempre observados no es simple paranoia. Si bien la IA abre oportunidades, también acarrea riesgos tangibles. La información personal en las manos equivocadas puede dar lugar a discriminación, manipulación o fraudes.
Pensemos en las filtraciones masivas de datos que exponen millones de identidades. Por ejemplo, un ciberataque al Instituto Mexicano del Seguro Social comprometió información de 20 millones de personas, evidenciando las graves consecuencias de no proteger adecuadamente nuestros datos.
El público está cada vez más consciente de estos peligros. Encuestas revelan que 81% de los usuarios siente que los riesgos de la recolección de datos superan los beneficios, y 75% de los consumidores dejaría de comprar en empresas en las que no confía el manejo de sus datos.
Ya no se trata solo de cumplir la ley, sino de mantener la confianza. En la era de la IA, la protección de datos se ha convertido en equivalente de reputación; un desliz y los usuarios se van, o peor, su intimidad resulta vulnerada.
¿Realmente, conoces tus derechos y obligaciónes sobre proteccion de datos personales?
¿Realmente, tienes dimensionadas las consecuencias que podrían trascender en tu subsistencia o en a de tu negocio si hoy eres víctima de un ataque cibernético?
La respuesta global; leyes y regulaciones emergentes.
Ante este panorama, gobiernos y organismos internacionales están tomando cartas en el asunto para devolver el control de los datos a sus dueños, es decir, a nosotros, los ciudadanos. La privacidad ya es un tema central en las agendas políticas de todo el mundo.
De hecho, más de 120 países ya cuentan con leyes de protección de datos personales. Estas regulaciones buscan poner límites y condiciones al uso de nuestra información, promoviendo principios de transparencia, consentimiento y responsabilidad en el manejo de datos.
México no es la excepción. En 2025 actualizó su Ley Federal de Protección de Datos Personales en Posesión de Particualres para reforzar los derechos de los ciudadanos sobre su información. Esta reforma impone obligaciones más estrictas a básicamente a cualquiera que trate datos personales, por ejemplo, el consentimiento expreso para usos distintos a los acordados y reorganiza a la autoridad reguladora; las funciones del antiguo INAI ahora las asume una entidad gubernamental.
En Europa, el Reglamento General de Protección de Datos (el “GDPR“), sentó un estándar global de privacidad. Actualmente la Unión Europea ultima una Ley de Inteligencia Artificial para controlar los algoritmos de alto riesgo.
A la par, distintas ciudades aportan su enfoque, como Ámsterdam que creó un registro público de algoritmos para transparentar la IA municipal; en contraste, por ejemplo, París permitió videovigilancia con IA durante los Juegos Olímpicos de 2024, siendo una medida controvertida. En general, la tendencia europea es clara y está enfocada en más transparencia y ética en el desarrollo de la IA para salvaguardar los derechos de las personas.
En España, la región de Asturias también dio un paso al frente. En 2025 aprobó un decreto pionero que regula el uso de la IA en su administración pública, con el fin de aprovechar estas tecnologías mejorando servicios sin comprometer la ética ni los derechos fundamentales. Este ejemplo demuestra que incluso a nivel regional se puede liderar una transformación digital responsable.
En Estados Unidos, aunque aún no existe una ley federal de privacidad, varios estados han legislado por su cuenta. Texas, por ejemplo, promulgó una ley estatal (Texas Data Privacy and Security Act) que otorga a los residentes derechos sobre sus datos personales. Incluso, Texas ha sido además agresivo en aplicarla al ser el primer estado en entablar acciones legales bajo esta ley, logrando multas récord de 1,400 millones de dólares a Meta y 1,375 millones a Google aproximadamente por el mal uso de datos personales.
Innovación con ética es el camino a seguir.
La protección de datos personales en la era de la IA no se trata de poner freno a la innovación, sino de dirigirla con ética. En Veltrix creemos firmemente que la confianza del usuario es tan valiosa como el algoritmo más sofisticado. Al desarrollar IA, debemos hacerlo con la premisa de poner la privacidad y los derechos humanos en primer plano.
Gobiernos, empresas e individuos compartimos la responsabilidad de proteger la privacidad. Las autoridades con leyes claras, empresas con privacidad desde el diseño y transparencia, y la ciudadanía ejerciendo sus derechos. Solo así lograremos que la IA siga mejorando nuestras vidas sin transgredir nuestra dignidad.
Este artículo inaugura el Tech Hub de Vertrotek, ¡larga vida!. Los invito a continuar la conversación compartiendo sus ideas y experiencias sobre la privacidad y la IA. Sigamos explorando juntos cómo lograr que la IA avance de la mano de la protección de los datos personales; su voz será clave en este camino hacia un futuro digital más seguro y humano.
Leonardo Stuart
CEO
Veltrix