Protección digital en Ecuador: deepfakes, inteligencia artificial y la expansión de la violencia contra mujeres, adolescentes y niñas.
Escuche el artículo

Autora: Mercedes Alejandra Araujo Quiñonez *
Cuando la voz de las mujeres es distorsionada, apropiada o silenciada, no estamos solo ante una falla tecnológica, sino frente a una forma contemporánea de violencia. En el entorno digital, esta distorsión adquiere nuevas dimensiones: imágenes manipuladas, identidades falseadas y relatos impuestos que despojan a niñas, adolescentes y mujeres de control sobre su propia representación. En esta línea, el pensamiento de Jürgen Habermas —cuya reciente partida marca el cierre de una de las tradiciones más influyentes del pensamiento contemporáneo— resulta esclarecedor: una sociedad democrática solo puede sostenerse si la comunicación es libre de distorsiones. Sin embargo, fenómenos como los deepfakes y la inteligencia artificial generativa erosiona esa base al instalar en el espacio digital una realidad manipulada que se presenta como verdadera.[1]
Representa un avance relevante para la legislación ecuatoriana, la incorporación de figuras jurídicas orientadas a la protección en entornos digitales. No obstante, la realidad evidencia una brecha persistente entre la proclamación normativa y su eficacia material: niñas, adolescentes y mujeres continúan expuestas a riesgos digitales crecientes, en particular a fenómenos de captación, uso indebido de imágenes y nuevas formas de violencia que encuentran en el entorno virtual un espacio de expansión acelerada. Esta realidad refleja una protección insuficiente y cuestiona el cumplimiento del deber reforzado del Estado frente a grupos en situación de vulnerabilidad.[2]
En materia penal, estas dinámicas se expresan en conductas como el grooming, la sextorsión y la difusión no consentida de imágenes íntimas. El Código Orgánico Integral Penal (COIP) prevé y sanciona estas conductas —entre otros, en el artículo 173 y en las disposiciones relativas a la intimidad personal—, lo que demuestra que el problema no es la ausencia normativa, sino su aplicación. Persisten respuestas institucionales que no incorporan de manera efectiva una perspectiva de género, lo que dificulta comprender las formas específicas de captación, manipulación y exposición digital que afectan de manera diferenciada a niñas, adolescentes y mujeres.[3]
A este déficit se suma un fenómeno aún más complejo: la transformación de la imagen en dato. La inteligencia artificial no crea el problema de la sobreexposición; lo escala, lo automatiza y lo vuelve prácticamente irreversible. Hoy, la imagen de una niña o adolescente no es solo un atributo personalísimo, sino un insumo procesable: dato biométrico, material de entrenamiento para sistemas de reconocimiento facial y contenido reutilizable en modelos generativos. La tecnología no distingue consentimiento progresivo ni interés superior de las niñas, niños y adolescentes; distingue patrones.
Hoy, la exposición digital de menores se ha convertido en una práctica cotidiana. Se requiere acceso a internet y un mínimo de conocimiento digital, para que las imágenes de niñas, adolescentes y mujeres quienes son las mas vulnerables, puedan ser recolectadas, indexadas, reutilizadas y transformadas sin control efectivo. La aparición de deepfakes agrava este escenario al permitir la creación de contenidos falsos con apariencia de autenticidad, frecuentemente de carácter íntimo o sexual, amplificando el daño de forma exponencial. Una imagen deja de ser un registro del pasado y se convierte en materia prima de futuras manipulaciones.[4]
Este fenómeno no solo lesiona la reputación y la intimidad. Compromete la integridad psíquica, la autonomía y el desarrollo de la identidad. Además, tensiona las categorías tradicionales del derecho penal, especialmente en materia probatoria y en la atribución de responsabilidad, exigiendo una actualización interpretativa del sistema jurídico.
Los algoritmos priorizan visibilidad, interacción y rentabilidad, no derechos, lo que llamamos economía de la atención. El contenido infantil, por su capacidad de generar reacción, se convierte en un activo particularmente valioso, lo que incentiva su sobreexposición.[5]
En este escenario, la respuesta frente a la violencia digital no puede limitarse a la existencia de normas ni a su aplicación formal. Se requiere incorporar de manera transversal perspectiva de género y de infancia en la actuación judicial, para comprender la dimensión real del fenómeno, garantizando una respuesta jurídica eficaz y acorde con la dignidad de quienes enfrentan estas formas de violencia.
El desafío, en definitiva, no es únicamente jurídico. Es estructural. Regular la inteligencia artificial sin perspectiva de género e infancia implica aceptar que los sistemas tecnológicos continúen operando sobre la base de desigualdades preexistentes. Y en la economía de la atención, aquello que no se regula, se optimiza.
Bibliografía
- HABERMAS, Jürgen, Teoría de la acción comunicativa, Madrid, Taurus, 1987.
- ZUBOFF, Shoshana, La era del capitalismo de la vigilancia, Barcelona, Paidós, 2020.
- GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron, Deep Learning, MIT Press, 2016.
- Constitución de la República del Ecuador.
- Código Orgánico Integral Penal (COIP).
- Convención sobre los Derechos del Niño.
- Investigadora Predoctoral (Escuela de Doctorado: Estado de Derecho y Gobernanza Global)
- Universidad de Salamanca
- idu058602@usal.es
- https://orcid.org/0009-0007-3078-2241
[1] HABERMAS, Jürgen, Teoría de la acción comunicativa, Madrid, Taurus, 1987, pp. 385–420.
[2] Constitución de la República del Ecuador, Registro Oficial No. 449, 20 de octubre de 2008, arts. 35 y 44; Convención sobre los Derechos del Niño, adoptada por la Asamblea General de las Naciones Unidas el 20 de noviembre de 1989, arts. 12 y 16.
[3] Código Orgánico Integral Penal, Registro Oficial Suplemento No. 180, 10 de febrero de 2014, art. 173; véase también disposiciones sobre violación de la intimidad personal.
[4] Sobre manipulación digital y riesgos de inteligencia artificial generativa, véase: GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron, Deep Learning, MIT Press, Cambridge, 2016.
[5] ZUBOFF, Shoshana, La era del capitalismo de la vigilancia, Barcelona, Paidós, 2020.





