La Inteligencia Artificial en el Ecuador

Autor: Abg. Dario Echeverría Muñoz, Mgs. – LL.M
Gerente General de QQrucho Legal&Tech
Introducción
La cuarta revolución industrial ha dejado de ser una promesa futurista para convertirse en una realidad tangible que permea cada estrato de la sociedad contemporánea. En este contexto, la Inteligencia Artificial (IA) emerge no solo como una herramienta tecnológica de procesamiento de datos, sino como un fenómeno disruptivo con la capacidad de redefinir las relaciones jurídicas, la administración pública y el ejercicio de los derechos fundamentales.
La Constitución de la República, al ser la norma suprema del Ecuador, establece todos los derechos, deberes, responsabilidades y garantías para sus diferentes funciones estatales y la ciudadanía en general.
Respecto a lo que se refiere al desarrollo de la sociedad de la información y el conocimiento, la finalidad de nuestra norma fundamental busca garantizar no solo el acceso a los medios, sino el aprovechamiento efectivo de las nuevas tecnologías como instrumentos para el Buen Vivir, asegurando que la innovación no transgreda la dignidad humana.
Es así como el numeral 2 del Art. 16 de la Constitución señala:
ARTÍCULO 16: Todas las personas, en forma individual o colectiva, tienen derecho a: […]
- El acceso universal a las tecnologías de la información y comunicación.
Este mandato no se agota en la conectividad física; exige una postura activa del Estado frente a tecnologías disruptivas como la Inteligencia Artificial (IA), para evitar que la brecha digital se convierta en una brecha de oportunidades vitales. En concordancia, el sistema de innovación tiene un fin teleológico claro, prescrito en el Art. 385:
ARTÍCULO 385: El sistema nacional de ciencia, tecnología, innovación y saberes ancestrales, en el marco del respeto al ambiente, la naturaleza, la vida, las culturas y la soberanía, tendrá como finalidad: […]
- Desarrollar tecnologías e innovaciones que impulsen la producción nacional, eleven la eficiencia y productividad, mejoren la calidad de vida y contribuyan a la realización del buen vivir.
La tecnología no es un fin en sí misma, sino un medio para alcanzar el bienestar colectivo. En la misma norma suprema, dentro de las atribuciones que le corresponden al presidente de la República para dirigir la administración pública y expedir las normas necesarias para su regulación, el numeral 5 del Art. 147 faculta la emisión de políticas públicas que, en este caso, materializan la visión tecnológica del Estado.
Si bien el deber del Estado es fomentar el desarrollo, este tiene un límite infranqueable en la esfera íntima de los ciudadanos, pues la IA se nutre fundamentalmente de datos. Es así como el numeral 19 del Art. 66 señala:
ARTÍCULO 66: Se reconoce y garantizará a las personas: […]
- El derecho a la protección de datos de carácter personal, que incluye el acceso y la decisión sobre información y datos de este carácter, así como su correspondiente protección. La recolección, archivo, procesamiento, distribución o difusión de estos datos o información requerirán la autorización del titular o el mandato de la ley.
[…]
Pero la realidad tecnológica avanza a un ritmo que a menudo desafía la capacidad de respuesta estatal si no existe una planificación adecuada. En cumplimiento a lo dispuesto en el numeral 1 del Art. 85 de la Constitución:
ARTÍCULO 85: La formulación, ejecución, evaluación y control de las políticas públicas y servicios públicos que garanticen los derechos reconocidos por la constitución, se regularán de acuerdo con las siguientes disposiciones:
- Las políticas públicas y la prestación de bienes y servicios públicos se orientarán a hacer efectivos el buen vivir y todos los derechos, y se formularán a partir del principio de solidaridad.
El Ecuador, en un esfuerzo por sincronizar su reloj normativo con el tiempo tecnológico global, ha dado un paso decisivo mediante la expedición del Acuerdo Ministerial Nro. MINTEL-MINTEL-2025-0030, instrumento que oficializa la Estrategia para el Fomento del Desarrollo y Uso Ético y Responsable de la Inteligencia Artificial en el Ecuador (EFIA-EC).
Este documento no es un mero compendio de buenas intenciones; constituye el primer cuerpo normativo integral —aunque de rango sublegal— dedicado exclusivamente a la gobernanza de la IA en el país. Su emisión por parte del Ministerio de Telecomunicaciones y de la Sociedad de la Información (MINTEL), en su calidad de ente rector de la transformación digital, responde a un mandato legal y constitucional imperativo.
Sustanciación jurídica de la inteligencia artificial en el ordenamiento vigente
Una de las omisiones más notables en los debates contemporáneos sobre la regulación de la IA en América Latina es la tendencia a ignorar el acervo jurídico vigente, bajo la falsa premisa de que la tecnología disruptiva requiere necesariamente leyes nuevas. En el caso de Ecuador, si bien la Estrategia enumera correctamente la Constitución, la Ley de Transformación Digital y la Ley de Protección de Datos Personales como pilares normativos, existe una pieza clave que frecuentemente se pasa por alto: la Ley de Comercio Electrónico, Firmas Electrónicas y Mensajes de Datos (LCE).
Esta norma, vigente desde hace más de dos décadas, fue redactada bajo los principios de neutralidad tecnológica de la CNUDMI (Comisión de las Naciones Unidas para el Derecho Mercantil Internacional), lo que le permite mantener una vigencia sorprendente ante fenómenos como la IA Generativa.
La Ley de Comercio Electrónico como Base Operativa
El Artículo 2 de la LCE define a los Mensajes de Datos como toda información creada, generada, procesada, enviada, recibida, comunicada o archivada por medios electrónicos, ópticos o de naturaleza similar. Esta definición es omnicomprensiva: cuando un Modelo de Lenguaje Grande (LLM) como GPT-4 o un sistema de análisis predictivo genera un reporte, una recomendación de crédito o un borrador de contrato, ese output es, legalmente, un Mensaje de Datos.
La importancia de esta categorización radica en el principio de equivalencia funcional: los mensajes de datos tienen igual valor jurídico que los documentos escritos. Esto significa que:
- La información generada por una IA es legalmente vinculante si cumple con los requisitos técnicos de accesibilidad y ulterior consulta.
- No se requiere una reforma constitucional para admitir contratos inteligentes o decisiones automatizadas, pues la ley ya equipara el medio electrónico al físico.
Los artículos 51 y 52 de la LCE abordan el valor probatorio de los mensajes de datos, estableciendo que deben ser valorados por jueces y tribunales considerando la confiabilidad de la forma en que se haya generado, archivado o comunicado el mensaje. Esto introduce el concepto de trazabilidad forense: para que un sistema de IA sea “ético y responsable”, debe ser auditable bajo los estándares de la LCE.
El reglamento define al Dispositivo Electrónico como el instrumento físico o lógico utilizado independientemente para iniciar o responder mensajes de datos, sin intervención de una persona al momento de dicho inicio o respuesta. Esta definición reconoce explícitamente que una máquina puede actuar de manera autónoma, proporcionando una solución elegante al problema de la agencia artificial: el dispositivo actúa, pero la responsabilidad jurídica se imputa al titular o al responsable del sistema que lo programó o desplegó.
La LCE también ofrece la Firma Electrónica como herramienta técnica para garantizar la autenticidad, integridad y no repudio de los contenidos generados por IA. La estrategia debe promover el uso de firmas electrónicas certificadas para sellar los modelos de IA y sus outputs críticos, especialmente en el sector público.
Naturaleza Jurídica del Acuerdo Ministerial EFIA-EC
En la jerarquía normativa, un acuerdo ministerial es de rango inferior a las leyes. El Acuerdo declara la Estrategia de aplicación obligatoria para los sectores público y privado, lo que genera una tensión jurídica respecto a los límites de la potestad reglamentaria ministerial.
Sin embargo, la EFIA-EC opera en gran medida como un instrumento de Soft Law (derecho blando). Establece principios, directrices y líneas de acción, más que sanciones directas. Su fuerza radica en orientar la conducta y crear estándares que podrán ser exigibles bajo conceptos como “debida diligencia” o incorporados en regulaciones sectoriales. Para el sector público, su cumplimiento es mandatorio por jerarquía. Para el privado, su obligatoriedad deriva de su vinculación con la Ley Orgánica de Transformación Digital, que faculta al ente rector a emitir lineamientos.
La Estrategia busca llenar un vacío legislativo de forma ágil, necesaria ante la velocidad del cambio tecnológico, pero deberá ser eventualmente consolidada en una norma de mayor jerarquía para garantizar seguridad jurídica a largo plazo.
Diagnóstico y principios de la EFIA-EC
La implementación efectiva de la Inteligencia Artificial en el Ecuador requiere un análisis profundo de la realidad actual del país y la definición de los pilares éticos que guiarán su adopción. Esta sección presenta una radiografía del ecosistema tecnológico nacional, los valores fundamentales que deben regir el desarrollo algorítmico y las rutas estratégicas diseñadas para transformar el marco normativo en acciones concretas.
Diagnóstico del Ecosistema Ecuatoriano de IA
La Estrategia parte de un diagnóstico realista que ubica al Ecuador como un país en el estadio de Adoptante, ocupando la posición 10 entre 19 países de la región según el Índice Latinoamericano de Inteligencia Artificial (ILIA 2025). Este informe, liderado por el CENIA de Chile y la CEPAL, destaca un fenómeno denominado el Despertar de los Adoptantes Tardíos, donde Ecuador ha logrado escalar posiciones (del puesto 11 al 10 en un año) gracias a mejoras aceleradas en conectividad y la oficialización de estrategias nacionales. Los indicadores críticos revelan una realidad dual:
- Dimensión de Gobernanza: Ecuador obtuvo un puntaje de 34.93 sobre 100, situándose significativamente por debajo del promedio regional de 47.57. Resulta alarmante el puntaje de 0 en Visión e Institucionalidad, lo que evidencia que, aunque existe una estrategia de papel, carece de mecanismos de implementación, presupuestos asignados y una estructura institucional robusta que la ejecute de manera efectiva. En contraste, el puntaje en regulación es de 66.43, reflejando un avance normativo que no se traduce necesariamente en capacidad técnica o administrativa.
- Investigación, Desarrollo y Adopción (I+D+A): Con un puntaje de 41.2, Ecuador muestra un interés creciente pero una inversión en I+D crítica de apenas el 0.44% del PIB. La región en su conjunto invierte cuatro veces menos de lo que le correspondería según su peso económico mundial, y Ecuador personifica esta brecha.
- Infraestructura y Talento: La capacidad de cómputo sigue siendo una barrera insalvable, con apenas 26.0 Teraflops de GPU por millón de habitantes. En cuanto al capital humano, existe una paradoja: mientras la alfabetización digital básica ha mejorado, el talento avanzado y especializado es escaso (< 0.00156%). Los puntajes en alfabetización duplican a los de formación profesional avanzada, limitando la capacidad del país para generar soluciones soberanas adaptadas a su contexto local.
El análisis FODA identifica amenazas como el uso indebido de la IA y los sesgos algorítmicos. Desde el derecho penal, el uso indebido puede configurar delitos informáticos tipificados en el COIP. Los sesgos algorítmicos plantean desafíos al principio de igualdad y no discriminación.
Entre las oportunidades se destaca el aprovechamiento de conocimientos ancestrales. Ecuador, siendo megadiverso y plurinacional, posee riqueza de datos biológicos y culturales que la IA podría potenciar, pero existe riesgo de biopiratería digital. El marco jurídico del Protocolo de Nagoya y el Código Ingenios debe aplicarse rigurosamente.
Principios Rectores y su Alcance Jurídico
La Estrategia enuncia 11 Principios Rectores que, al estar en una norma jurídica, se convierten en estándares de conducta exigibles:
- Derecho a la Privacidad y Protección de Datos Personales: Este principio es una remisión directa a la LOPDP de 2021. Refuerza la minimización de datos: no recolectar todo lo que se pueda, sino solo lo necesario. Jurídicamente, obliga a implementar la Privacidad desde el Diseño y por Defecto. El incumplimiento activaría la potestad sancionadora de la Superintendencia de Protección de Datos.
- Equidad y No Discriminación: Los desarrolladores deberán mitigar y evitar resultados discriminatorios o sesgados. Un algoritmo que discrimina viola derechos fundamentales. La Estrategia eleva la higiene de datos a obligación legal. En un litigio, la carga de la prueba podría invertirse, obligando a la empresa a demostrar que su algoritmo no discrimina.
- Transparencia y Explicabilidad: La caja negra de las redes neuronales es el mayor enemigo del debido proceso. Si una IA toma una decisión que afecta a un ciudadano, esa decisión debe ser motivada. La Estrategia sugiere que, donde no haya explicabilidad, no debe haber decisión automatizada de alto impacto.
- Supervisión y Decisiones Humanas: Alineado con el concepto de agencia humana (Human-in-the-loop), este principio establece que la responsabilidad final siempre debe recaer en una persona. El Derecho no reconoce personalidad jurídica a la IA, por tanto, para efectos de imputación de responsabilidad civil o penal, siempre debe haber supervisión humana.
- Responsabilidad y Rendición de Cuentas: Este principio conecta con el concepto de Accountability. Los actores deben responder por los daños causados. Dado que Ecuador carece de norma específica de responsabilidad civil por IA, se aplicarán las reglas generales del Código Civil. La Estrategia sienta las bases para interpretar que el despliegue de IA es una actividad de riesgo que exige un deber de cuidado reforzado.
- Seguridad de los Sistemas de IA: Los sistemas deben ser robustos, confiables y seguros durante todo su ciclo de vida. Esto implica implementar medidas técnicas y organizativas para prevenir accesos no autorizados, manipulaciones o fallos que puedan comprometer su funcionamiento o la información que procesan.
- Exactitud y Fiabilidad: Los sistemas de IA deben proporcionar resultados precisos y consistentes, minimizando errores que puedan derivar en decisiones incorrectas o injustas. Este principio exige validación continua y actualización de los modelos para mantener su efectividad.
- Sostenibilidad Ambiental: Reconociendo el alto consumo energético del entrenamiento de modelos de IA, este principio promueve el desarrollo de sistemas eficientes que minimicen su huella de carbono y consideren el impacto ambiental en su diseño e implementación.
- Interoperabilidad: Los sistemas de IA deben diseñarse con estándares abiertos que permitan su integración con otras plataformas y servicios, evitando la creación de monopolios tecnológicos y facilitando la portabilidad de datos.
- Innovación Responsable: Se promueve el desarrollo de tecnologías de IA que generen beneficios sociales y económicos, equilibrando la necesidad de innovación con la protección de derechos fundamentales y valores sociales.
- Bien Común y Desarrollo Sostenible: Los sistemas de IA deben orientarse al logro del Buen Vivir (Sumak Kawsay) y contribuir al desarrollo sostenible del país, beneficiando equitativamente a toda la sociedad ecuatoriana y respetando los saberes ancestrales y la diversidad cultural.
Ejes Estratégicos y Líneas de Acción
La Estrategia operativiza sus principios a través de tres ejes:
- EJE 1 – Gobernanza de la IA: Establece las reglas institucionales. Incluye el desarrollo de normas técnicas y certificaciones (delegando al INEN la adopción de normas ISO/IEC sobre IA), y la creación de un inventario de sistemas de IA, medida que debe equilibrar transparencia pública con protección del know-how empresarial.
- EJE 2 – Capacidad y Tecnología: Enfocado en talento humano e infraestructura. Implica integrar contenidos de IA en procesos educativos y promover la adopción de servicios en la nube, con el reto jurídico de garantizar soberanía de datos cuando se usan nubes públicas para procesar datos sensibles.
- EJE 3 – Promoción y Adopción: Busca fomentar la innovación mediante instrumentos como el Sandbox Regulatorio, que permite experimentación controlada con flexibilización temporal de requisitos normativos, equilibrando innovación con protección de usuarios.
Análisis comparado de modelos regulatorios internacionales
Para que Ecuador evite errores estratégicos en la implementación de su EFIA-EC, es imperativo analizar los modelos internacionales existentes. El panorama global ofrece dos paradigmas diametralmente opuestos.
La AI Act de la Unión Europea
El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, conocido como la AI Act, representa el primer marco jurídico integral del mundo dedicado a la inteligencia artificial. Su enfoque no es regular la tecnología per se, sino los usos y riesgos asociados, estableciendo un sistema de gobernanza que busca proteger los valores democráticos y los derechos fundamentales en el mercado único europeo.
Su arquitectura regulatoria se basa en una clasificación jerárquica de riesgos:
- Riesgo Inaceptable (Prohibido): Sistemas que atentan contra la dignidad humana. Incluye el “puntaje social” estatal (social scoring), la categorización biométrica basada en datos sensibles, el reconocimiento de emociones en entornos laborales o educativos, y la vigilancia biométrica remota en tiempo real en espacios públicos (salvo excepciones muy tasadas de seguridad nacional).
- Alto Riesgo (Sujeto a Cumplimiento Estricto): Sistemas que operan en áreas críticas como infraestructura, educación, empleo, servicios esenciales (banca, seguros), migración y justicia. Estos sistemas deben cumplir con requisitos ex ante de gestión de riesgos, gobernanza de datos, documentación técnica y supervisión humana. Es obligatoria la realización de Evaluaciones de Impacto sobre los Derechos Fundamentales.
- Riesgo Específico de Transparencia: Sistemas como chatbots o herramientas que generan contenido sintético (deepfakes). Deben informar claramente al usuario que está interactando con una IA o que el contenido ha sido manipulado artificialmente.
- IA de Propósito General (GPAI): Introduce una regulación específica para modelos fundacionales potentes (como los que sostienen a GPT-4). Se establecen reglas de transparencia, informes de seguridad y evaluación de riesgos sistémicos para modelos con capacidades de cómputo superiores a 10²⁵ FLOPS.
Entre sus características críticas y contexto operativo tenemos:
- Efecto Extraterritorial: Al igual que el RGPD, la AI Act se aplica a cualquier proveedor que ponga en servicio o comercialice sistemas de IA en la Unión Europea, independientemente de dónde se encuentre su sede. Para Ecuador, esto significa que cualquier desarrollador local que desee exportar tecnología a Europa deberá cumplir íntegramente con esta norma.
- Infraestructura Institucional: La UE ha creado la Oficina Europea de IA (AI Office), encargada de supervisar los modelos de propósito general, y una Junta Europea de Inteligencia Artificial para coordinar a las autoridades nacionales.
- El Sistema de Evaluaciones de Conformidad: Este es el mecanismo central de control del AI Act y constituye su mayor carga operativa. Para los sistemas de alto riesgo, los proveedores deben someterse a un riguroso proceso de certificación antes de poder comercializar sus productos en la UE. Este procedimiento incluye:
- Evaluación de Conformidad Ex Ante: Antes de lanzar el sistema al mercado, el proveedor debe demostrar que cumple con todos los requisitos del Reglamento. Esto implica documentación técnica exhaustiva que describa la arquitectura del sistema, los datos de entrenamiento utilizados, las medidas de mitigación de riesgos implementadas y los procedimientos de supervisión humana.
- Participación de Organismos Notificados: Para determinados sistemas de alto riesgo (especialmente aquellos relacionados con biometría, infraestructura crítica o aplicación de la ley), la evaluación no puede ser autocertificada. Se requiere la intervención de un organismo notificado independiente, acreditado por las autoridades nacionales, que verifique objetivamente el cumplimiento. Este proceso puede tardar meses y tiene costos que oscilan entre 50,000 y 500,000 euros, dependiendo de la complejidad del sistema.
- Marcado CE y Declaración de Conformidad: Una vez superada la evaluación, el sistema recibe el marcado CE (Conformité Européenne), similar al que llevan los juguetes o dispositivos médicos. El proveedor debe emitir una declaración formal de conformidad, asumiendo responsabilidad legal por la exactitud de la información presentada.
- Vigilancia Post-Comercialización: El cumplimiento no termina con la aprobación inicial. Los proveedores están obligados a establecer sistemas de monitoreo continuo, reportar incidentes graves a las autoridades en un plazo de 15 días, y actualizar la evaluación de conformidad cada vez que se realicen modificaciones sustanciales al sistema (por ejemplo, al reentrenar el modelo con nuevos datos).
- Carga de Cumplimiento: El costo total de cumplimiento es masivo y multidimensional. Más allá de las evaluaciones de conformidad, incluye el mantenimiento permanente de sistemas de gestión de calidad (similar a ISO 9001), la contratación de personal especializado en gobernanza de IA, auditorías externas periódicas, y la implementación de infraestructura técnica para logging y trazabilidad. Estudios de impacto económico estiman que, para una PYME europea, el costo total de poner un sistema de alto riesgo en conformidad puede oscilar entre 200,000 y 2 millones de euros, dependiendo del sector. Para startups en fase temprana, estos costos son sencillamente prohibitivos, favoreciendo a los grandes incumbentes tecnológicos (Google, Microsoft, Meta) que poseen los recursos legales, técnicos y financieros para absorber estos gastos como parte de su estructura operativa normal.
- Régimen Sancionatorio: Las multas son disuasorias y escalonadas según la gravedad de la infracción: hasta 35 millones de euros o el 7% de la facturación global anual (lo que sea superior) por usar sistemas prohibidos; hasta 15 millones de euros o el 3% de la facturación por incumplimientos de obligaciones de sistemas de alto riesgo; y hasta 7.5 millones de euros o el 1.5% por proporcionar información incorrecta a las autoridades. Este modelo busca evitar que las multas se conviertan en un simple costo de hacer negocios, pero para empresas pequeñas, una sola multa puede significar la quiebra inmediata.
La Ley Básica de IA de Corea del Sur
Corea del Sur aprobó su Ley Básica sobre el Desarrollo de la Inteligencia Artificial y la Creación de una Base de Confianza en diciembre de 2024, con vigencia desde enero de 2026. Este cuerpo legal unificó 19 propuestas legislativas previas, consolidando una postura nacional que prioriza la competitividad industrial bajo el lema: “Promover primero, regular lo necesario” (sistema de pre-promoción, post-regulación).
A diferencia del modelo europeo, que nace de una tradición regulatoria precautoria heredada de crisis como el escándalo Cambridge Analytica y las preocupaciones sobre sesgo algorítmico en la justicia penal, el paradigma surcoreano entiende a la IA como el motor principal de la economía nacional del siglo XXI y como un asunto de seguridad nacional en su competencia tecnológica con China y Japón.
Entre sus características críticas y contexto operativo tenemos:
- Definición de IA de Alto Impacto vs. Alto Riesgo: Mientras que la UE clasifica amplias categorías como de alto riesgo (incluyendo sistemas de contratación laboral o calificación crediticia que afectan a individuos, pero no ponen vidas en peligro inmediato), Corea utiliza un enfoque más quirúrgico. La “IA de Alto Impacto” se limita estrictamente a sistemas cuyo fallo comprometa de forma directa la vida humana, la seguridad pública crítica o los derechos básicos a gran escala (ej. control automatizado de reactores nucleares, gestión de redes nacionales de energía, sistemas de diagnóstico médico de emergencia, o sistemas de defensa nacional). Para el resto de aplicaciones —incluyendo la mayoría de usos comerciales— la carga regulatoria es mínima, operando bajo un principio de autorregulación guiada por códigos de conducta sectoriales.
- Institucionalidad de Fomento Proactiva: La ley crea el Comité Nacional de Inteligencia Artificial, presidido directamente por el Presidente de la República, lo que refleja el carácter estratégico que Corea otorga a la IA. Este comité no es meramente consultivo: tiene poder de coordinación vinculante sobre todos los ministerios y autoridades regulatorias sectoriales. Complementariamente, se establece el Instituto Nacional de Seguridad de IA (AI Safety Institute), cuya función trasciende la vigilancia tradicional. Su mandato es dual: por un lado, investigación colaborativa público-privada para desarrollar técnicas de seguridad por diseño (como métodos de interpretabilidad de modelos y robustez contra ataques adversariales); por otro, apoyo técnico directo a las empresas —especialmente PYMES— para implementar mejores prácticas sin incurrir en costos prohibitivos.
- Obligaciones Mandatarias del Estado para el Apoyo Industrial: Aquí radica el factor diferenciador más importante del modelo surcoreano frente al europeo. Mientras la AI Act impone obligaciones casi exclusivamente sobre los desarrolladores privados, la Ley coreana invierte la ecuación: son las entidades públicas las que están legalmente obligadas a apoyar la industria. El artículo 18 de la Ley ordena al Ministerio de Ciencia y TIC construir y operar centros de cómputo de alto rendimiento (GPU clusters) accesibles gratuitamente o a costo subsidiado para startups y universidades. El artículo 21 establece un fondo nacional de inversión en IA con presupuesto garantizado plurianual. El artículo 25 manda la creación de “zonas de innovación en IA” (AI Innovation Zones), áreas geográficas con incentivos fiscales, regulación simplificada tipo sandbox permanente, y acceso preferencial a contratos públicos para empresas que desarrollen IA localmente. Esta arquitectura legal convierte al Estado en un socio activo del desarrollo tecnológico, no solo en un supervisor.
- Régimen de Cumplimiento Flexible y Proporcional: A diferencia de las certificaciones ex ante europeas, Corea adopta un modelo de cumplimiento basado en principios y autoevaluación. Los proveedores de IA de alto impacto deben registrar sus sistemas y presentar anualmente un “Reporte de Seguridad y Ética”, pero no requieren aprobación previa para operar. Las auditorías gubernamentales son reactivas (tras incidentes o denuncias) o aleatorias (muestreo estadístico), no universales. Cuando se detectan incumplimientos, el enfoque es la “corrección colaborativa”: la autoridad emite primero una guía administrativa detallada sobre cómo subsanar el problema, otorgando un periodo de gracia de hasta 12 meses. Solo tras el incumplimiento reiterado se aplican sanciones, que son proporcionales (multas que no exceden el 1% de ingresos anuales) y están diseñadas para corregir conductas, no para destruir empresas.
- Filosofía de Corrección sobre Punición: El régimen sancionatorio establece un periodo de gracia de un año para que las empresas se ajusten a las normas. Las multas son proporcionales y correctivas, priorizando la guía administrativa sobre las multas financieras destructivas. Esta filosofía refleja la tradición jurídica del Este Asiático, donde la armonía social y la rectificación son preferibles al antagonismo legal.
En el fondo, la apuesta de Corea es geopolítica. El gobierno entiende que en un mundo donde Estados Unidos controla los modelos fundacionales (OpenAI, Google) y China desarrolla capacidades propias cerradas (Baidu, Alibaba), depender exclusivamente de IA extranjera es renunciar a la soberanía digital. La Ley busca crear un ecosistema doméstico robusto donde empresas coreanas puedan competir globalmente. Para países como Ecuador, con ecosistemas emergentes, este modelo ofrece lecciones valiosas sobre cómo usar el derecho no solo para proteger, sino para impulsar.
El Efecto Bruselas y el Riesgo para la Innovación en Ecuador
El término Efecto Bruselas, acuñado por la jurista Anu Bradford, describe el fenómeno mediante el cual la Unión Europea externaliza sus leyes de facto a través de los mecanismos del mercado global. Debido al peso económico del mercado único europeo, las corporaciones multinacionales suelen adoptar los estándares de la UE en todas sus operaciones mundiales para evitar los costes de mantener procesos duplicados. Sin embargo, para países en desarrollo como Ecuador, existe un riesgo adicional: el Efecto Bruselas por recepción normativa, donde los legisladores locales copian o trasplantan las normativas europeas sin realizar un análisis de impacto económico y social adecuado a su propia realidad nacional.
La AI Act está calibrada para un mercado de alta sofisticación tecnológica donde existen gigantes que cuentan con departamentos legales capaces de gestionar evaluaciones de conformidad que pueden costar cientos de miles de dólares. En Ecuador, imponer requisitos similares resultaría en la inviabilidad inmediata de las startups locales. El resultado sería la captura del mercado: solo las empresas extranjeras que ya cumplen con Bruselas podrían operar en sectores estratégicos, aniquilando la competencia nacional antes de que esta tenga oportunidad de madurar.
El riesgo de la sobrerregulación prematura es particularmente grave. Europa regula hoy porque tiene un ecosistema consolidado de grandes empresas tecnológicas y necesita proteger a los ciudadanos de abusos comprobados. Ecuador, en cambio, aún está en la fase de construcción de ese ecosistema. Imponer obligaciones de gobernanza de datos, auditorías externas y sistemas de gestión de calidad cuando apenas existen emprendimientos locales desarrollando IA sería equivalente a exigir los más altos estándares de seguridad a una industria que apenas está ensamblando su primer prototipo.
La EFIA-EC reconoce implícitamente estos riesgos al adoptar un enfoque de soft law y al priorizar la promoción sobre la sanción en sus primeros años de implementación. Para que la Estrategia Nacional sea efectiva, Ecuador debe consolidar esta visión y alejarse definitivamente de la tentación de la adecuación formal con Bruselas. La vía ecuatoriana debe ser una regulación adaptativa que, inspirada en el modelo surcoreano, fomente primero la creación de valor local antes de imponer cargas burocráticas que solo los actores globales pueden soportar. Esto significa adoptar un enfoque de regulación por madurez del ecosistema, donde las exigencias crecen conforme crece el desarrollo local. En las fases iniciales, deben priorizarse mecanismos de soft law, códigos de buenas prácticas sectoriales y autorregulación guiada, reservando la regulación dura —con sanciones y certificaciones obligatorias— solo para sectores donde ya exista desarrollo industrial consolidado o donde los riesgos sean verdaderamente críticos e inminentes.
Vacíos jurídicos y desafíos de implementación
La operatividad de la EFIA-EC enfrenta barreras normativas que trascienden el ámbito tecnológico. Si estas “zonas grises” no se resuelven, los incentivos para la inversión y el desarrollo local previstos en los Ejes 2 y 3 de la Estrategia podrían neutralizarse por la inseguridad jurídica.
El Vacío de la Responsabilidad Civil y el Problema de la Agencia
La EFIA-EC no define el régimen de responsabilidad, un obstáculo mayor para la adopción. La opacidad algorítmica hace casi imposible probar la culpa en errores de machine learning. La doctrina debe evolucionar hacia una responsabilidad objetiva por riesgo creado: quien despliega la IA para obtener un beneficio asume los daños. Una medida pragmática sería implementar seguros obligatorios de responsabilidad civil para sistemas en sectores sensibles (salud, transporte, finanzas).
Propiedad Intelectual: El Reto de la “Obra Asistida”
El Código Ingenios protege la creatividad humana. No hay claridad sobre la titularidad de los derechos de autor de un output generado por IA. Se requiere una reforma que reconozca la titularidad de la persona que dirigió el proceso creativo (human-in-the-loop), estableciendo umbrales de aporte creativo humano suficiente. Una solución escalonada podría otorgar protección plena a obras con alta intervención humana y periodos reducidos de exclusividad para aquellas con intervención mínima.
El Acto Administrativo Automatizado y el Debido Proceso
El uso de IA para emitir actos administrativos (asignar bonos, créditos) choca con el requisito constitucional y del COA de que todo acto sea una declaración de voluntad motivada. Un sistema de “caja negra” viola el derecho a la defensa. Para ser constitucional, debe garantizarse la explicabilidad algorítmica: el ciudadano debe recibir una explicación comprensible de la decisión, los datos y criterios usados, y cómo impugnarla. Sin revisión humana previa y motivación accesible, el acto sería nulo por indefensión.
La Tensión del Consentimiento en la LOPDP y la Economía de Datos
La rigidez de la LOPDP al exigir consentimiento para casi todo tratamiento choca con la necesidad de usar Big Data para entrenar modelos de IA nacionales. Una interpretación restrictiva bloquearía el desarrollo de IA local, forzando la importación de modelos extranjeros con sesgos ajenos. La EFIA-EC debe impulsar reformas que habiliten bases alternativas de legitimación como el interés legítimo para investigación y desarrollo, o el uso de datos seudonimizados/anónimos bajo protocolos seguros, con supervisión estricta para prevenir abusos.
Conclusiones
La Estrategia para el Fomento de la IA en Ecuador (EFIA-EC) representa un avance histórico al establecer la primera hoja de ruta nacional, anclada en principios constitucionales y once estándares éticos exigibles. No obstante, su naturaleza sublegal limita su capacidad para resolver vacíos jurídicos críticos, como el régimen de responsabilidad o la titularidad de obras creadas con IA. Su consolidación dependerá de que la Asamblea Nacional la eleve a una Ley Orgánica que otorgue seguridad jurídica jerárquica y aborde estas lagunas con soluciones adaptadas al contexto local.
El análisis comparado advierte sobre el riesgo de copiar acríticamente modelos como el riguroso marco europeo, lo que podría asfixiar el incipiente ecosistema ecuatoriano. La estrategia debe consolidarse como una política de Estado adaptativa, que priorice la promoción industrial y la autorregulación en esta fase inicial, usando herramientas como los sandboxes regulatorios. Solo una regulación que crezca en exigencia al ritmo del desarrollo local evitará la fuga de talento, la dependencia tecnológica y cumplirá con el mandato de soberanía digital.
El éxito final trasciende lo normativo y se define en la articulación institucional y la voluntad política sostenida. Requiere una acción coordinada del Estado para reformar la educación, adaptar la contratación pública, flexibilizar guías para la investigación de datos y, crucialmente, invertir en infraestructura de cómputo y datos abiertos. Este enfoque integral es el único camino para equilibrar la protección de derechos con un fomento pragmático de la innovación nacional, cumpliendo así con el mandato constitucional del Sumak Kawsay.
Autor: Abg. Dario Echeverría Muñoz, Mgs. – LL.M
Gerente General de QQrucho Legal&Tech
Enlaces: https://www.linkedin.com/in/darioecmunoz/
https://linktr.ee/darioecmunoz
REFERENCIAS
Centro Nacional de Inteligencia Artificial de Chile y Comisión Económica para América Latina y el Caribe. (2025). Índice Latinoamericano de Inteligencia Artificial (ILIA). Santiago de Chile: CENIA & CEPAL. Obtenido de https://indicelatam.cl/
Ecuador. (2002). Ley No. 2002-67. Ley de Comercio Electrónico, Firmas Electrónicas y Mensajes de Datos. Quito, Ecuador: Registro Oficial Suplemento 557. Obtenido de https://www.lexis.com.ec/biblioteca/ley-comercio-electronico-firmas-mensajes-datos
Ecuador. (20 de Octubre de 2008). Constitución de la República. Quito, Ecuador: Registro Oficial Suplemento No. 449. Obtenido de https://www.lexis.com.ec/biblioteca/constitucion-republica-ecuador
Ministerio de Telecomunicaciones y Sociedad de la Información del Ecuador. (19 de enero de 2025). Acuerdo Ministerial Nro. MINTEL-MINTEL-2025-0030. Estrategia para el Fomento del Desarrollo y Uso Ético y Responsable de la Inteligencia Artificial en el Ecuador (EFIA-EC). Quito, Ecuador: Registro Oficial Suplemento No. 206. Obtenido de https://strapi.lexis.com.ec/uploads/Registro_Oficial_Ano_l_Primer_Suplemento_No_206_del_19_de_enero_de_2026_LEXIS_ECUADOR_86fc2da374.pdf
National Assembly of South Korea. (22 de January de 2026). Law No. 20676. Framework Act on the Development of Artificial Intelligence andEstablishment of Trust. South Korea. Obtenido de https://cset.georgetown.edu/wp-content/uploads/t0625_south_korea_ai_law_EN.pdf
Parlamento Europeo y Consejo de la Unión Europea. (13 de junio de 2024). Reglamento (UE) $2024$/$1689$ del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial. Reglamento de Inteligencia Artificial. Unión Europea: Diario Oficial de la Unión Europea, L 1689/1. Obtenido de https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:32024R1689















