Michelle Azuaje: la nueva aplicación “Sora” nos enfrenta a retos legales
abril 2024
Michelle Azuaje: la nueva aplicación “Sora” nos enfrenta a retos legales
La investigadora del CiPP, Michelle Azuaje, en una columna publicada en El Desconcierto, examina la nueva aplicación de inteligencia artificial (IA) denominada “Sora”.
“Sora se distingue de las aplicaciones que generan texto o imágenes que hemos venido conociendo en los últimos años bajo la denominación de “inteligencia artificial generativa”, en que va más allá, porque puede crear videos de hasta un minuto con escenas hiperrealistas en las que pueden aparecer “personas”, lugares, ciudades, objetos y entornos (sintéticos o imitaciones de existentes), de acuerdo las instrucciones recibidas. Open AI ha dicho que “no solo comprende lo que el usuario ha pedido en el prompt, sino también cómo existen esas cosas en el mundo físico”, así lo explica la investigadora del Centro Interdisciplinar de Políticas Públicas (CiPP) de la Universidad Alberto Hurtado (UAH), Michelle Azuaje, en una columna publicada en el El Desconcierto. La académica de la Facultad de Derecho de la UAH, analiza la nueva aplicación llamada “Sora” de inteligencia artificial (IA) que fue dada a conocer, en febrero pasado, por Open AI, la empresa detrás del ChatGPT y DALL-E y trata de un sistema que utiliza inteligencia artificial “IA” para generar videos a partir de prompts (textos o instrucciones en lenguaje natural), y se encuentra en fase de prueba por razones de seguridad.
Michelle Azuaje sostiene que esta aplicación puede ofrecer grandes aportes al mundo de la creatividad y la cultura pero hace que surjan una serie de interrogantes sobre la existencia o no de derechos de propiedad intelectual y la posibilidad de que su utilización puede menoscabar a las personas. “El uso inadecuado de herramientas de generación de contenido hiperrealista ya ha dado lugar a la creación de Deep fakes que han implicado la vulneración de derechos tales como la imagen, la honra y la reputación, que han afectado especialmente a mujeres”.
Para la experta todas estas situaciones llevan a plantearse la necesidad de establecer regulaciones para el uso responsable de la IA, tarea que no es fácil porque al legislar no puede afectarse la libertad de expresión y creación. ”Algunas legislaciones (como en Estados Unidos) han prohibido ciertos usos maliciosos de los Deep fakes. Otras, como la “Propuesta de Ley sobre Inteligencia Artificial”, en la Unión Europea, buscan imponer el deber de revelar de forma clara y distinguible (salvo algunas excepciones) que el contenido ha sido generado o manipulado artificialmente”, expone la docente.
Finalmente, la académica se refiere a las propuestas surgidas en Chile.”Entre ellas se encuentra el Proyecto de Ley (Boletín Nº 16021-07) que busca incorporar al Código Penal como circunstancia agravante “haber cometido el delito mediante el uso o por medio de IA.” Sin embargo, tanto los riesgos como las oportunidades son diversas y pueden relacionarse con más de una disciplina, por lo que no existen fórmulas perfectas y se trata de un desafío muy difícil de abordar”, concluye la investigadora del CiPP.
Puedes leer esta columna en el siguiente enlace.