La infancia en la mira: el peligro de los deepfakes en Argentina

UNICEF y UNESCO revelan que el 96% de los chicos accede a internet y quedan expuestos a riesgos digitales.

Un reciente informe titulado “Kids Online Argentina 2025”, elaborado por UNICEF y UNESCO, reveló que el 96% de los niños tiene acceso a internet en sus hogares y que el 88% se conecta a diario desde un celular. En ese contexto, el abogado especializado en derecho de trabajo Santiago Sain, dialogó con VMI Radio 88.1  y sostuvo que la niñez nunca fue prioridad en el diseño de las grandes plataformas digitales, lo que abre la puerta a fenómenos peligrosos como los deepfakes.

Los deepfakes son creaciones digitales generadas por inteligencia artificial que imitan rostros, voces y gestos, muchas veces sin consentimiento. Aunque en un inicio puedan parecer graciosos, su utilización con fines de acoso o sexualización de menores ya ha generado casos en Córdoba y San Luis, donde adolescentes manipularon imágenes de compañeras de secundaria para difundirlas en redes sociales.

Sain investigó uno de estos episodios los encuadró como “violencia psicológica y sexual digital”, destacando que no existe en la legislación argentina un delito específico para este tipo de manipulación. En cambio, en Estados Unidos y la Unión Europea ya hay normativas que regulan el uso de la IA frente a este tipo de abusos.

La Corte Suprema de Justicia de la Nación, en 2021, sostuvo que la reproducción artificial de la voz sin consentimiento vulnera la intimidad y la integridad de las personas, un criterio que podría aplicarse a estos casos. Sin embargo, expertos remarcan que en Argentina todavía falta una ley nacional que proteja a la infancia del uso indebido de la inteligencia artificial, así como programas de alfabetización digital y controles efectivos.

“El entorno digital ya nos invadió y las infancias no pueden ser una frontera vulnerable”, concluyó el especialista, subrayando la necesidad de una responsabilidad compartida entre Estado, plataformas y adultos responsables.