22 minutos de lectura

Inteligencia Artificial objetada por la justicia

Un tribunal de la ciudad de Rosario (Argentina) marcó un hito al constatar que un abogado incorporó en su escrito citas jurisprudenciales inexistentes generadas por un sistema de inteligencia artificial (IA). Requerido por el órgano jurisdiccional, el profesional admitió haber utilizado dicha herramienta sin verificar la autenticidad de las referencias incluidas en una demanda de daños y perjuicios. El caso trasciende lo anecdótico: interpela la ética profesional en el ejercicio del Derecho y, por extensión, en otras disciplinas que empiezan a apoyarse en sistemas algorítmicos.

La cuestión ética: diligencia profesional y verificación de fuentes

El tribunal fue claro: aun actuando de buena fe, el profesional no queda eximido del deber de diligencia. En Derecho —y particularmente en el foro— no basta con invocar autoridad; corresponde corroborar la existencia, vigencia y pertinencia de cada fuente citada. La IA, en su modalidad generativa, puede “alucinar” (esto es, producir salidas verosímiles, pero fácticamente falsas); por ello, no es una fuente, sino una herramienta cuya producción debe ser verificada. Confiar ciegamente en sus resultados comporta negligencia y puede vulnerar los códigos de ética y la probidad profesional.

En el Derecho, invocar citas sobre la jurisprudencia sin corroboración es un acto riesgoso que erosiona la calidad del debate judicial. La cita de jurisprudencia, doctrina o normativa no puede ser un mero ejercicio retórico: requiere comprobar su existencia, su vigencia normativa y su pertinencia material frente al caso concreto. Se trata de una exigencia básica de la probidad profesional, prevista en los códigos de ética de la abogacía y en las reglas deontológicas internacionales (v.gr. Principios Básicos sobre la Función de los Abogados de Naciones Unidas).

En este contexto, la irrupción de la inteligencia artificial generativa plantea nuevos desafíos. Dichos sistemas, diseñados para producir texto fluido y verosímil, pueden incurrir en lo que la literatura técnica denomina “alucinaciones”: resultados que aparentan precisión pero que carecen de sustento fáctico o documental. Una sentencia inexistente, un artículo mal citado o un precedente tergiversado son ejemplos de estas “alucinaciones” que, sin una revisión crítica, pueden ser incorporadas de manera inadvertida en escritos judiciales.

Por ello, es fundamental recalcar que la IA no constituye una fuente jurídica en sí misma, sino únicamente una herramienta auxiliar. Su producción debe ser sometida a un proceso riguroso de verificación humana, a través de cotejo con bases de datos oficiales, repositorios jurisprudenciales y legislación vigente. No hacerlo equivale a negligencia profesional.

La confianza ciega en los resultados de la IA no solo compromete la validez de los argumentos que se plasman en sus escritos, sino que además puede constituir una vulneración de los códigos de ética y de los principios de responsabilidad y probidad que rigen la profesión. El deber de cuidado impone al abogado la obligación de distinguir entre lo que la herramienta sugiere y lo que puede ser sostenido con prueba documental verificable. Ignorar esta distinción afecta directamente la credibilidad del litigante, la confianza del cliente y, en última instancia, la legitimidad del propio sistema de justicia.

Estándar que proyecta fronteras: asistencia tecnológica sí, sustitución no

La sentencia proyecta efectos que trascienden la jurisdicción local argentina y resuenan en todo el ámbito latinoamericano e incluso internacional. Lo relevante no es únicamente la sanción concreta al abogado, sino el estándar ético y profesional que se fija: aun en contextos de sobrecarga judicial —común en la mayoría de tribunales de América Latina— el deber de verificación y control humano no puede relajarse.

El tribunal fue categórico: la inteligencia artificial puede ser una herramienta auxiliar de gran utilidad para organizar información, realizar búsquedas preliminares, resumir textos complejos o sugerir líneas de argumentación. Sin embargo, su función es instrumental y no sustitutiva. No reemplaza la responsabilidad del profesional, que sigue siendo el único garante de que lo escrito en un expediente tenga veracidad, sustento normativo y pertinencia jurídica.

El mensaje es inequívoco: el criterio profesional es indelegable. La IA puede apoyar, pero no decidir; puede aportar eficiencia, pero nunca sustituir la diligencia humana, la cual constituye la esencia misma del ejercicio de la abogacía. Un abogado no es un transcriptor de textos generados por un software, sino un intérprete crítico del Derecho, cuya responsabilidad ética lo obliga a revisar, filtrar y validar cada cita, cada argumento y cada referencia.

De este modo, la sentencia inaugura un estándar mínimo de control humano que, de consolidarse en la región, podría convertirse en un referente para otros sistemas judiciales que enfrentan el mismo dilema: cómo aprovechar los beneficios de la tecnología sin renunciar al rol insustituible del juicio profesional. Al marcar esta línea, la judicatura argentina no solo resolvió un caso concreto, sino que envió una advertencia a la comunidad jurídica: la eficiencia tecnológica jamás puede ser excusa para la negligencia profesional.

Deberes concretos del abogado ante el uso de IA

El fallo explicita con nitidez una consecuencia que no admite matices: el uso de herramientas de inteligencia artificial compromete directamente la responsabilidad profesional del abogado, tanto frente al tribunal como frente a su cliente. No se trata únicamente de una cuestión procesal de admisibilidad o pertinencia, sino de una obligación deontológica vinculada al deber de probidad, diligencia y lealtad procesal.

Incluso si existiera un consentimiento informado del patrocinado que autorice expresamente al abogado a emplear herramientas algorítmicas o chatbots jurídicos, tal autorización no exonera al profesional de su deber esencial: cotejar las fuentes, verificar la autenticidad de la información y garantizar que los argumentos y citas provengan de materiales jurídicos reales, identificables y accesibles. La delegación del trabajo mecánico nunca equivale a una delegación de la responsabilidad.

El tribunal subrayó que inducir en error a la judicatura, aunque sea de manera involuntaria o por “alucinación” de un sistema generativo, constituye una vulneración al deber de lealtad procesal y puede comprometer tanto la eficacia del proceso como la confianza pública en la justicia. La ética profesional no tolera la incorporación de argumentos ficticios, pues ello afecta la transparencia del litigio y erosiona el principio de buena fe procesal.

En consecuencia, la autoría intelectual del escrito —y, sobre todo, su control— permanece indelegablemente en el profesional del Derecho y no en la máquina. El abogado puede servirse de la tecnología para organizar, procesar o acelerar la búsqueda de información, pero sigue siendo él quien firma, quien responde y quien responde por los contenidos. La IA no comparece en juicio, no asume deberes éticos ni enfrenta sanciones disciplinarias; quien lo hace es el abogado.

De este modo, el fallo no solo resuelve un caso puntual, sino que fija un precedente ético y normativo: la inteligencia artificial puede ser una aliada en el ejercicio de la profesión, pero nunca podrá desplazar el deber de control crítico, que constituye la esencia misma de la responsabilidad profesional del abogado frente al cliente, frente al tribunal y frente a la sociedad.

Cultura de integridad: más allá del “copiar y pegar”

Este precedente recuerda que la abogacía no consiste en la mera reproducción mecánica de textos ni en la acumulación memorística de artículos, sino en el ejercicio de habilidades superiores: interpretar, argumentar, verificar y persuadir. La práctica jurídica exige un compromiso constante con la verdad, con la coherencia normativa y con la aplicación justa de la Constitución y las leyes.

La inteligencia artificial puede, ciertamente, potenciar el trabajo del profesional: organizar información, acelerar búsquedas, resumir documentos extensos o sugerir líneas de análisis. Sin embargo, estas funciones son meramente instrumentales. Lo sustantivo del quehacer jurídico —el juicio prudencial, la honestidad intelectual y el rigor metodológico en la construcción de argumentos— permanece inseparable de la labor humana.

La sentencia es clara en advertir que el Derecho no se agota en datos ni en outputs algorítmicos. Su legitimidad descansa en el razonamiento crítico del abogado y en su capacidad de someter cada afirmación a prueba de veracidad, pertinencia y consistencia con el ordenamiento jurídico. En este sentido, la abogacía es más que técnica: es una responsabilidad ética y social, que implica dar a los tribunales y a los clientes garantías de que las afirmaciones expuestas en un proceso se apoyan en fuentes reales y comprobables.

Si se debilitara este deber de verificación y control, el riesgo sería doble: por un lado, la erosión de la credibilidad del Derecho como sistema racional y confiable; por otro, la pérdida de confianza pública en la justicia como institución que asegura imparcialidad, transparencia y respeto a los derechos fundamentales.

Por ello, este precedente debe entenderse como un llamado de atención global: la IA no sustituye la formación profesional ni la ética jurídica; es solo una herramienta auxiliar. En última instancia, la fortaleza del sistema de justicia depende de la disciplina cotidiana de los abogados en verificar lo que afirman, en sostener con rigor lo que citan y en ejercer su función con integridad y responsabilidad, pues de ello depende el prestigio de la profesión y la confianza ciudadana en el Estado de derecho.

En suma, el caso de Rosario cristaliza un estándar ético-jurídico mínimo para el uso de inteligencia artificial en el litigio, que no puede ser reducido a un mero listado de pautas formales, sino que expresa la frontera entre la innovación legítima y la renuncia inadmisible a la responsabilidad profesional. Así, se identifican cuatro exigencias esenciales: (i) transparencia frente al juez, la contraparte y el cliente sobre la utilización de IA, a fin de evitar prácticas opacas que puedan inducir en error o generar asimetrías indebidas; (ii) verificación humana exhaustiva de todas las citas, referencias normativas y datos que sean incorporados, pues ningún algoritmo reemplaza el deber de corroborar la exactitud de la información que respalda los argumentos jurídicos; (iii) prohibición de delegar indebidamente la autoría de los escritos, dado que la firma del abogado comporta un compromiso personal de seriedad, rigor y lealtad procesal, imposible de transferir a una máquina; y (iv) observancia estricta de los principios de veracidad, probidad y diligencia, que constituyen pilares de la ética forense y de la confianza en la administración de justicia.

La innovación tecnológica, en particular el uso de herramientas algorítmicas, puede aportar eficiencia, rapidez y apoyo a la investigación jurídica, pero de ningún modo exonera al profesional de sus deberes de prudencia, integridad y control. El Derecho no puede ser tratado como un producto automatizado sin conciencia crítica; su práctica requiere juicio interpretativo, creatividad argumentativa y sensibilidad ética. Por ello, mientras la modernización es bienvenida, lo que resulta inaceptable es el abandono de la ética profesional, pues sin esta la litigación pierde su credibilidad y se erosiona la confianza pública en la justicia.

Con respecto a la probidad, los Códigos de Ética y las normas de ética profesional de los profesionales del Derecho, tanto a nivel general como en las disposiciones que publican los Colegios de Abogados, establecen un marco claro de responsabilidad y conducta. La aparición de la inteligencia artificial en el campo jurídico, si bien no es reciente, ha cobrado fuerza en los últimos tres años. Dichos sistemas, en sus propios términos y condiciones, reconocen expresamente su carácter experimental y advierten que sus resultados deben ser cotejados, precisamente porque pueden generar alucinaciones o contenidos ficticios. De allí que, como ocurrió en el caso analizado, aparezcan fuentes inventadas que jamás existieron en la realidad.

La experiencia comparada muestra que en otros países se han impuesto sanciones disciplinarias a abogados que presentaron escritos judiciales con citas inexistentes proporcionadas por chatbots. Por lo tanto, mientras estos sistemas no se desarrollen al punto de garantizar fiabilidad absoluta, resulta sumamente riesgoso y hasta temerario delegarles la tarea de búsqueda de jurisprudencia y reproducir sus resultados sin verificar rigurosamente la fuente.

Si bien es innegable que la inteligencia artificial está siendo explorada en los sistemas judiciales del mundo entero, tanto para apoyar investigaciones como para automatizar ciertos procesos de toma de decisiones, ello no exime de un debate más profundo. Es necesario reflexionar sobre cómo aprovechar sus potencialidades y, al mismo tiempo, comprender las implicaciones que su uso tiene para los derechos humanos y para el Estado de derecho. Estas discusiones deben involucrar a todos los actores del sistema judicial.

La inteligencia artificial puede constituirse en una herramienta poderosa para enfrentar algunos de los problemas sociales más críticos de la humanidad. Sin embargo, su utilización plantea también riesgos serios respecto de la libertad de expresión, la privacidad, la protección de datos personales y la no discriminación. Por ello, su integración en el Derecho debe realizarse bajo un estricto respeto a la ética profesional, a los estándares internacionales y a valores fundamentados en los derechos humanos.

Es evidente que la inteligencia artificial plantea desafíos de enorme complejidad en el Derecho. Mismos que no se limitan a cuestiones técnicas, sino que alcanzan dimensiones éticas, sociales y normativas que requieren respuestas institucionales sólidas y coordinadas.

En primer lugar, destacan los desafíos más comunes en derecho:

  • Privacidad. – La recopilación, almacenamiento y análisis masivo de datos personales, que son la base del funcionamiento de muchos sistemas de IA, implican riesgos evidentes para la intimidad de las personas. El acceso no autorizado, la reutilización de información sensible o la transferencia transfronteriza de datos generan tensiones con los principios de protección de datos y con los estándares constitucionales de privacidad.
  • Propiedad intelectual. – La determinación de la autoría en las creaciones realizadas con IA es un tema en debate. La dificultad radica en definir si el crédito corresponde al programador, al usuario o al propio sistema. Ello afecta directamente a la protección de obras y a los derechos morales y patrimoniales, lo que requiere ajustes normativos de fondo.
  • Impacto en el empleo. – La automatización de tareas rutinarias amenaza con desplazar a ciertos perfiles profesionales, incluidos algunos del ámbito legal, como asistentes jurídicos o revisores de documentos. No obstante, también abre oportunidades para generar nuevos empleos especializados en ética digital, ciberseguridad y auditoría de algoritmos.
  • Regulación. – El marco jurídico vigente no está diseñado para abordar los desafíos que la IA introduce en materia de responsabilidad civil, contratos, derechos fundamentales y garantías procesales. La ausencia de normas claras crea un vacío que urge llenar mediante legislación específica, estándares internacionales y guías de buenas prácticas.

Junto con lo anterior, la dimensión ética de la inteligencia artificial en el derecho plantea cuestiones de gran sensibilidad que hoy discuten tanto la filosofía del derecho como la teoría constitucional:

  • Transparencia. – La complejidad técnica de los algoritmos genera opacidad y dificulta comprender cómo se toman decisiones automatizadas. Esto afecta el principio de publicidad y la necesidad de motivación de los actos jurídicos, pilares del debido proceso.
  • Responsabilidad. – La indeterminación sobre quién responde por los daños que ocasiona un sistema de IA —el programador, el proveedor, el usuario o la propia administración de justicia— genera un vacío legal que compromete la tutela judicial efectiva y exige la creación de regímenes claros de imputación.
  • Sesgos. – Los algoritmos, al ser entrenados con datos históricos, pueden reproducir y amplificar prejuicios sociales, generando discriminación indirecta en áreas tan delicadas como la selección de personal, la concesión de créditos o incluso las resoluciones judiciales asistidas por IA.
  • Derechos humanos. – La incorporación de sistemas automatizados en procesos judiciales debe garantizar juicios y procedimientos imparciales, evitando que la velocidad tecnológica erosione garantías como la presunción de inocencia, la igualdad de armas o el derecho a ser oído.
  • Consentimiento y autonomía. – El uso de datos personales y su circulación en entornos digitales requieren mecanismos de consentimiento informado, claros y verificables, para proteger la autonomía de las personas frente a usos abusivos o manipuladores.
  • Impacto social. – Aunque la IA posee un enorme potencial para mejorar la eficiencia del sistema judicial y ampliar el acceso a la justicia, también puede ser utilizada con fines maliciosos —desde la manipulación de pruebas hasta la vigilancia masiva—. De ahí la urgencia de establecer principios éticos robustos y controles institucionales eficaces.

En definitiva, la inteligencia artificial abre una oportunidad histórica para fortalecer la justicia y democratizar el acceso a ella, pero al mismo tiempo plantea riesgos que, si no son gestionados bajo los valores del Estado constitucional de derecho, pueden profundizar desigualdades, vulnerar derechos fundamentales y socavar la confianza ciudadana en las instituciones.

¿Cómo prepararse para la era de la IA en el Derecho?

Para estar preparado ante los desafíos y oportunidades que trae la inteligencia artificial, es fundamental que los futuros abogados y los profesionales del derecho en activo adquieran habilidades tecnológicas avanzadas. La formación en Legal Tech, que incluye el aprendizaje sobre cómo utilizar herramientas de inteligencia artificial, es esencial para no quedarse rezagado frente a los cambios de la profesión jurídica y, al mismo tiempo, para garantizar un ejercicio responsable, ético y competitivo. No se trata únicamente de dominar nuevas plataformas, sino de comprender sus implicaciones jurídicas, prevenir riesgos y aprovechar su potencial para mejorar el acceso a la justicia, optimizar procesos y reforzar la protección de los derechos fundamentales.

El Derecho es una disciplina que tradicionalmente se resiste al cambio, pero que ha experimentado una revolución tecnológica en los últimos años. Lainteligencia artificial aplicada al Derecho permite la automatización de tareas rutinarias y la agilización de procesos, liberando a los abogados y a cualquier operador jurídico de una carga de trabajo administrativa, rutinaria y repetitiva, que consume mucho tiempo y puede llevar a errores. De esta forma, los abogados y cualquier profesional del ámbito del Derecho pueden centrarse en tareas más estratégicas, como el desarrollo de estrategias legales, la argumentación en juicios, o la defensa de sus clientes. Aunque también en estas tareas puede ayudar la IA o la denominada jurimetria. El análisis de datos se muestra fundamental para trazar estrategias, por ejemplo, en los procesos judiciales.

La IA en el sector legal ha abierto la puerta a un nuevo mundo de posibilidades, desde el uso de algoritmos para analizar miles de documentos legales en minutos, hasta la capacidad de predecir el resultado de casos judiciales basados en patrones previos.

Desafío en la formación profesional

El Derecho demanda formación, experiencia y adoctrinamiento en la justicia, y esto no se manifiesta solo con el ordenamiento jurídico, sino que exige una preparación en todas las ramas. Al respecto, el maestro Couture (s.f.) indica que “estudia: el Derecho se transforma constantemente. Si no sigues sus pasos, serás cada día un poco menos abogado”. Este primer mandamiento del abogado exige una constante actualización, ya que al Derecho cada día se le suman leyes, resoluciones, doctrina, jurisprudencia y ahora temas de tecnología.

Un Derecho cada vez más inteligente exige que la sociedad esté en permanente contacto con la inteligencia artificial. En esa línea, Ocaña, Valenzuela y Garro-Aburto (2019) señalan que:

En la formación universitaria se pone énfasis en el diseño de perfiles profesionales que se enmarquen al trabajo y la generación de conocimiento […] pero bien ¿hay una vertiente diáfana en los contextos de la educación superior que se enfoquen a los cambios que se suscitan en los nuevos retos sustentados en la educación digital?; ¿cuál es el perfil, y que competencias deberá de desarrollar el estudiante inmerso en el mundo virtual? (pp. 542-543).

Sin duda la respuesta a estas preguntas es la oralidad; debido a que, con un sistema capaz de tomar decisiones como si fuera una inteligencia humana, los escritos y las actuaciones procesales se van a realizar de forma mecánica y la parte práctica por el jurista.

A nivel internacional, según explica De Trazegnies Granda, “la Universidad de Harvard implementó un curso sobre la aplicación de la inteligencia artificial al Derecho, a fin de reclutar futuros investigadores” (2013, p. 122). Este escenario muestra que los estudiantes del Derecho ya se vienen formando desde la universidad en inteligencia artificial y si a ello le sumamos los sistemas expertos en sentencias, nos damos cuenta de que aprender Derecho ya no va a consistir en aprender contenidos, sino va a significar un aprendizaje en argumentación.

Así, la parte teórica va a ser realizada por las máquinas inteligentes y la parte filosófica por los juristas. En virtud de lo cual, las actuales facultades de Derecho del país deben cambiar su estructura curricular e incluir temas de tecnología, sistemas computacionales e inteligencia artificial, así como darles énfasis a las asignaturas de argumentación y litigación jurídica.

Conclusiones

El caso de Rosario en Argentina evidencia que la inteligencia artificial no sustituye la ética profesional. El uso de herramientas algorítmicas en el Derecho no exime al abogado de su deber de verificación, probidad y diligencia, pues la responsabilidad sigue siendo indelegable y recae exclusivamente en quien firma y presenta los escritos. Aunque en el caso argentino, este precedente trasciende fronteras y proyecta un estándar ético mínimo con alcance regional e internacional: la IA puede apoyar la labor jurídica, pero nunca reemplazar el juicio crítico ni la verificación humana.

Su incorporación al Derecho plantea desafíos complejos en materia de privacidad, propiedad intelectual, sesgos, responsabilidad y transparencia, que de no gestionarse con base en principios de derechos humanos y normas deontológicas podrían erosionar la confianza ciudadana en la justicia y comprometer la legitimidad del Estado de derecho.

No obstante, también abre oportunidades relevantes para agilizar procesos, analizar grandes volúmenes de información y mejorar el acceso a la justicia, siempre que se integre con un marco ético sólido y controles institucionales eficaces. Ante este escenario, resulta imprescindible que los abogados en formación y en ejercicio adquieran competencias tecnológicas avanzadas y conocimientos en Legal Tech, de modo que comprendan cómo funcionan estas herramientas, cuáles son sus limitaciones y cómo utilizarlas de forma responsable. Ello exige una reforma educativa y profesional que actualice los planes de estudio de las facultades de Derecho y la capacitación continua de los colegios profesionales, incorporando materias de tecnología, sistemas computacionales e inteligencia artificial, sin descuidar la enseñanza de la argumentación, la ética y la litigación. El verdadero reto no consiste en reemplazar al abogado con la IA, sino en convertirla en un instrumento que potencie su labor. El Derecho no se agota en la técnica ni en la acumulación de datos; es, ante todo, un ejercicio ético, argumentativo y social orientado a garantizar justicia, igualdad y respeto a los derechos humanos.

REFERENCIAS

Abogados.com.ar (27 de mayo de 2019). PROMETEA: el primer sistema de inteligencia artificial predictivo de la justicia se presenta en “Mundial de Inteligencia artificial”. Abogados.com.ar. https://abogados.com.ar/prometea-el-primer-sistema-de-inteligencia-artificial-predictivo-de-la-justicia-se-presenta-en-el-mundial-de-inteligencia-artificial/23523

Corvalán, J. (9 de septiembre de 2019). El impacto de la IA en el Derecho Procesal. DPI Cuántico. https://dpicuantico.com/2019/09/09/el-impacto-de-la-ia-en-el-derecho-procesal/

Couture, E. (s.f.). Los mandatos del abogado. http://www.justiciayderecho.org.pe/revista2/articulos/LOS%20MANDAMIENTOS%20DEL%20ABOGADO%20eduardo.pdf

Fernández, C., & Boulat, P. (10 de abril de 2015). Inteligencia Artificial y Derecho. Problemas y perspectivas. Noticias Jurídicas. https://noticias.juridicas.com/conocimiento/articulos-doctrinales/10061-inteligencia-artificial-y-derecho-problemas-y-perspectivas/#_Toc416175199

Hernández, M. (2019). Inteligencia Artificial y Derecho Penal. Actualidad Jurídica Iberoamericana, (10), 792-843.

Iglesias, D. (19 de marzo de 2018). Primer atropello mortal de un vehículo sin conductor. El Mundo. https://www.elmundo.es/motor/2018/03/19/5aaff150e2704ec82e8b463f.htvml

JoseMarioMX. 2025. “Un tribunal de Rosario, Argentina; marcó un hito: un abogado presentó jurisprudencia inventada por IA en su escrito.” X, enero 30, 2025. https://x.com/josemariomx/status/1959819443388743836.

Martínez García, J. I. (2018). Derecho inteligente. Cuadernos Electrónicos de Filosofía del Derecho, (37), 95-114. https://doi.org/10.7203/CEFD.37.11440

Ocaña, Y., Valenzuela, L., & Garro-Aburto, L. (2019). Inteligencia artificial y sus implicaciones en la educación superior. Propósitos y Representaciones, 7(2), 536-568. http://dx.doi.org/10.20511/pyr2019.v7n2.274

Más publicaciones

En América Latina y en especial en el Ecuador, la inseguridad nos acompaña día tras día, como nuestra lobreguez.

Un tribunal de la ciudad de Rosario (Argentina) marcó un hito al constatar que un abogado incorporó en su escrito citas jurisprudenciales inexistentes generadas por un sistema de inteligencia artificial (IA).

Descubre cómo la participación ciudadana en la justicia puede aumentar la transparencia y confianza pública. El artículo revisa beneficios, retos, modelos internacionales y su viabilidad para ser implementado en Ecuador.

Regulada por el Art. 55 del COIP, la acumulación de penas ocurre en el concurso real de infracciones (pluralidad de acciones y delitos). Se aplica cuando una persona comete varias conductas autónomas, sumando las penas hasta un límite máximo de 40 años.

Ab. Giovani Criollo Mayorga

La medicina personalizada, con IA y datos genéticos, genera retos biojurídicos. Aborda la privacidad, el consentimiento y el acceso, urgiendo al derecho a adaptarse para proteger los derechos humanos.

About Wikilogy

Wikilogy is a platform where knowledge from various fields merges, with experts and enthusiasts collaborating to create a reliable source covering history, science, culture, and technology.