1. Inicio
  2. Noticias
  3. Derecho e IA: autoría, sesgos y responsabilidad, con Carlos Amunátegui

Derecho e IA: autoría, sesgos y responsabilidad, con Carlos Amunátegui

No pedir a la IA lo que uno no sabe hacer, revisar siempre los resultados y nunca usarla como oráculo, son parte de las recomendaciones de Carlos Amunátegui, a propósito de derecho e IA.

El derecho enfrenta uno de sus mayores desafíos: adaptarse sin perder su esencia. Las fronteras entre lo humano y la inteligencia artificial generativa se vuelven difusas. Hay desafíos, sesgos y dilemas.

Para profundizar en esta idea y otras relacionadas con el derecho y la IA, en el episodio 33 del podcast Curiosos, el periodista Iván Troncoso conversa con Carlos Amunátegui, profesor titular de la Facultad de Derecho de la Pontificia Universidad Católica de Chile, investigador en derecho patrimonial, teoría del derecho e inteligencia artificial.

Dónde ver/oír a Carlos Amunátegui

YouTube: Derecho e IA con Carlos Amunátegui: autoría, sesgos y responsabilidad

Spotify: Derecho e IA con Carlos Amunátegui: autoría, sesgos y responsabilidad

Podcast Apple: Derecho e IA con Carlos Amunátegui: autoría, sesgos y responsabilidad

Derecho e IA: 3 focos principales

Amunátegui explica que la IA está transformando tanto la práctica del derecho como su marco regulatorio. Existen, dice, tres grandes focos de debate: la propiedad intelectual, la responsabilidad por actos cometidos con apoyo de IA y la transparencia de los algoritmos.

El primer punto plantea un dilema aún sin resolver: ¿se puede entrenar una IA con obras protegidas por derechos de autor? Países como Japón ya permiten este uso, mientras otros, como Chile, permanecen en la ambigüedad legal.

El segundo problema es la responsabilidad jurídica. Si un algoritmo provoca un daño —por ejemplo, un auto autónomo que atropella a alguien—, ¿quién responde: el dueño, la empresa o el propio sistema? Amunátegui afirma que hoy el derecho chileno busca analogías en casos como los animales o los mandatarios, pero carece de un marco específico para agentes artificiales.

Sobre la regulación, el académico advierte que el riesgo de legislar demasiado pronto puede ser tan alto como el de no hacerlo. Cita el caso europeo: el Reglamento de Inteligencia Artificial quedó obsoleto apenas promulgado, al basarse en modelos estrechos cuando ya predominaban los sistemas generalistas como GPT, capaces de tareas múltiples y de riesgo variable.

Otro eje del diálogo es la explicabilidad. Amunátegui distingue entre la transparencia —declarar qué sistemas se usan— y la comprensión real de sus decisiones, algo que todavía es una “caja negra”. Por eso, sostiene, cualquier IA que intervenga en decisiones públicas debería ser auditada antes de su uso.

Las alucinaciones, los sesgos

En el ámbito profesional, el jurista enfatiza la necesidad de usar la IA como complemento, no como sustituto. Las “alucinaciones” —errores estructurales de los modelos de lenguaje— obligan a que los abogados sepan lo que piden y revisen todo resultado. Si no, los riesgos son altos, especialmente en contratos o pruebas judiciales. De hecho, Amunátegui recuerda casos donde abogados presentaron demandas generadas por IA con jurisprudencia inexistente.

La conversación también aborda los sesgos algorítmicos, ejemplificados con el célebre caso de Amazon en 2014, cuyo sistema de selección terminó discriminando a mujeres por entrenarse con datos sesgados. “Las IA adquieren prejuicios humanos”, advierte Amunátegui, y por eso deben someterse a auditorías previas, especialmente en el sector público.

En cuanto a las buenas prácticas, recomienda no pedir a la IA lo que uno no sabe hacer, revisar siempre los resultados y nunca usarla como oráculo. “El trabajo del futuro será más de seleccionar que de producir”, dice. En la formación jurídica, eso implica volver a lo fundamental: desarrollar criterio y pensamiento humanista, más que especialización técnica.

Finalmente, el entrevistado reflexiona sobre la autoría en las creaciones con IA: las leyes actuales solo reconocen derechos a obras humanas, aunque algunos países, como Inglaterra, contemplan otorgar derechos a quien realiza los “arreglos necesarios” —el prompt, quizás—. El debate sigue abierto: ¿deberíamos proteger estas obras o declararlas de dominio público?

El episodio concluye con una invitación de Amunátegui a formarse en programas de educación continua de la Universidad Católica, donde se dictan diplomados en inteligencia artificial, fintech, protección de datos y neuroderechos.

Episodios anteriores de Curiosos

¿Quieres disfrutar los anteriores episodios del podcast Curiosos? En los siguientes enlaces podrás ver o escuchar a Catalina Vargas, Cristián Plaza, Daniel Toscano, Alejandra González Celis, María José Navia, Felipe Encinas, Viviana Hojman, María Soledad Herrera, Paula Aguirre, José Miguel Aguilera y Carolina Moreno, Eduardo Arellano, Consuelo Ceppi de Lecco, Rodrigo Mayorga, Alejandra Vargas, Andrés Ried, Óscar y Beatriz Wirth, el Dr. Pablo Aguilera, Paolo Bortolameolli, Jeannette von Wolfersdorff, Pedro Traverso, María José Pérez, Josefina Movillo, al cardenal Fernando Chomali, Karen Connolly, Denisse Goldfarb, Antonio Kovacevic, Daniel Halpern, Carolina Martínez y Eduardo Fermandois.

YouTube: https://www.youtube.com/@EducacionContinuaUC/videos

En Spotify: https://open.spotify.com/show/79ERsKPPiVwMSLj2fiXsQ7

Podcast Apple: https://podcasts.apple.com/us/podcast/curiosos/id1801084667

 

Lee sobre todos los talleres, cursos y diplomados que ofrece Educación Continua UC. 

¿Te gusta esta publicación?
Comparte esta publicación
Facebook Twitter LinkedIn