Ghibligate: Estás del lado equivocado

Echen leña a la indignación
Ghibligate: Estás del lado equivocado
● hacé scroll para leer más ●

Ghibligate: Estás del lado equivocado

Algo me venía haciendo ruido desde que empecé a ver memes de Homero rodeado de gente Ghiblificada y videos de indignación sobre el robo de las IAs a artistas.

Sucede que estamos en una era donde la tecnología viene avanzando a pasos agigantados desde la creación de Internet y, al igual que en ese entonces, tendemos a prejuzgar lo que está pasando y hacer evaluaciones apresuradas que pueden llevar a conclusiones erróneas

Ojo, sé que toda la gente que ha estado defendiendo el trabajo del artista en ningún momento lo ha hecho con mala intención, pero tal vez te interese conocer un poco más de lo que está pasando legal y éticamente con la inteligencia artificial. 

Es posible que cambie un poco tu óptica como me pasó a mí, que arranqué sintiendo que esto era una violación a Miyazaki y me terminé dando cuenta que le estamos haciendo el juego a las grandes empresas

¿Cómo? Te cuento por acá…

Fue la de mejor calidad que encontré, pido disculpas.

Legal versus ético

Lo primero que hay que entender es que lo legal no siempre coincide con lo ético. Es decir, algo puede ser cuestionable moralmente sin ser ilegal.

Micaela Mantegna, especialista en derecho digital y propiedad intelectual, nos lo explica así:

Cuando hablamos de lo ético, no siempre es igual a lo ilegal. Que sea no ético no significa que sea ilegal. Entonces hay cosas que son legales pero que pueden ser no éticas.

En el caso de las IA generativas, el debate se centra en si el entrenamiento de estos modelos constituye una infracción al copyright. Pero la realidad es más compleja.

En países como Estados Unidos, existe el Fair Use (uso justo), una doctrina legal que permite el uso de material protegido sin permiso en ciertos contextos, como la parodia, la crítica o la investigación. Esto es lo que, por ejemplo, permite que en YouTube se usen fragmentos de películas para hacer reseñas.

El problema es que, al satanizar cualquier uso de obras artísticas por parte de la IA, corremos el riesgo de debilitar el Fair Use, una herramienta que, en realidad, protege a los creadores de los abusos de las grandes corporaciones.

Recomendamos el libro de Micaela, donde profundiza aún más en estas cuestiones.

¿Por qué el copyright no siempre beneficia a los artistas?

Parece contradictorio, pero las leyes de copyright, que en teoría estarían diseñadas para proteger a los artistas individuales, pero en la práctica se convierten en una herramienta que da muchísimo poder a los intermediarios: discográficas, estudios de cine y editoriales.

Micaela Mantegna lo ilustra con un ejemplo contundente:

Si The New York Times gana las demandas por entrenamiento de IA, no le va a redistribuir a los escritores que pusieron sangre, sudor y lágrimas en eso, porque ellos tienen la propiedad intelectual de lo que esos escritores hicieron.

Lo mismo pasó con Taylor Swift, quien, a pesar de ser una de las artistas más exitosas del mundo, tuvo que regrabar su discografía para recuperar el control de su música. Las grandes empresas usan el copyright para mantener su poder, no para proteger a los creadores.

@lawmagination

Respuesta a @ccam1995 #propiedadintelectual #taylorswift #1989 #1989taylorsversion #derechosdeautor #taylorsversion

♬ sonido original – María Camila García • Abogada

Sobre los abusos de las leyes de copyright, se puede leer sobre “Copyright Wars“, el caso de Aaron Swartz, y cosas ridiculas como cuando Disney olbigó a una guardería a pintar un mural para no demandarlos.

La jugada maestra: ¿Por qué OpenAI lanzó una herramienta para “ghiblificar” fotos en medio de la polémica?

Acá es donde la cosa se pone turbia. OpenAI no necesita más publicidad: ChatGPT ya es conocido en todo el mundo. Entonces, ¿por qué arriesgarse a generar más indignación con una herramienta que claramente evoca el estilo de Studio Ghibli, un estudio que ha criticado duramente a la IA?

Mantegna tiene una hipótesis que me dejó pensando:

“”Para mí, se está esperando una nueva orden ejecutiva de la Administración de Trump, que delimite su plan de accion sobre AI, expandiendo la del 23 de Enero del 2025 (“Removing Barriers to American Leadership in Artificial Intelligence”), declarar a la IA como una cuestión de seguridad nacional y estratégica”

Es decir, OpenAI podría estar forzando un escenario de conflicto público para que las cortes o el gobierno estadounidense terminen declarando que el entrenamiento de IA cae bajo el Fair Use, blindando así su modelo de negocio.

Si esto sucede, las empresas tecnológicas ganarían, pero los artistas seguirían sin ver un centavo. Peor aún, el Fair Use podría debilitarse, dejando a los creadores independientes aún más vulnerables frente a los grandes monopolios.

¿Una empresa en auge eligiendo justo apuntar a alguien que piensa así? ¿Casualidad?

El foco de la conversación

Algo que también sucede en estos momentos, es que quizá no estamos mirando cuál es el verdadero problema. Esto es algo frecuente en nuestra historia, nos aferramos a modelos obsoletos y estructuras que ya no nos son funcionales. No hay por qué avergonzarse, es parte de nuestra naturaleza. Sin embargo, puede ser muy útil buscar qué pensaban aquellos que alguna vez estuvieron a la vanguardia de la tecnología que reina hoy.

Nicolás, un querido amigo que está sumamente involucrado en cuestiones tecnológicas, me trajo a colación este breve video:

Para quienes no sepan inglés, sintéticamente plantea una especie de nuevo orden que tenga la libertad que propone el capitalismo con la equidad del socialismo (algo de lo que también habla Yanis Varoufakis, uno de los impulsores del término “Tecnofeudalismo”, del cual no voy a hablarles hoy pero seguramente prontito).

Jaron Lanier (el muchacho de las rastas) sostiene que el contenido generado por modelos de lenguaje (LLMs) debería tener mecanismos claros de atribución o reconocimiento hacia los humanos que generaron el contenido original utilizado para entrenarlos. Argumenta que los modelos no “crean” de manera original, sino que recombinan ideas y contenidos previos generados por personas. Por tanto, Lanier considera que atribuir adecuadamente el origen del conocimiento podría proteger la creatividad humana, brindar transparencia sobre las fuentes, y asegurar una compensación justa para los creadores originales, evitando que el esfuerzo humano quede invisibilizado por la aparente autonomía de la inteligencia artificial.

Conclusión: No caigamos en el teatro de la indignación

El verdadero problema no es que la IA “robe” el trabajo de los artistas, sino que no hay mecanismos de redistribución justa. Como señala Mantegna:

El problema no es que la IA se quede con mi trabajo, sino que se quede con mis ingresos.

En lugar de demonizar la tecnología, deberíamos exigir:

  • Impuestos a las empresas de IA para financiar un fondo para artistas.
  • Modelos de IA públicos y comunitarios, no controlados por gigantes tecnológicos.
  • Reformas al copyright que protejan a los creadores, no a los intermediarios.

Si nos quedamos en la superficie del debate, solo lograremos que las grandes corporaciones (tanto tecnológicas como las dueñas de los derechos de autor) sigan ganando. La indignación es útil, pero solo si apunta al verdadero enemigo.

Sumo a esta reflexión una frase que deberíamos poner en práctica para absolutamente todo: Desconfiemos de la información que confirma nuestra visión del mundo. Antes de compartir un trend de indignación, la moneda corriente de los algoritmos de hoy, preguntémonos primero por qué. 

—-

Agradezco profundamente a Micaela Mantegna quien, muy generosamente, me ha explicado esto para que pudiera entenderlo y me proporcionó material para hablar en la nota que pueden leer por acá: 

Cómo detectar Fake News


Compartí este post


MECHA es un proyecto comunitario que hacemos a voluntad. Si te gustó este artículo, te proponemos invitarle Cafecito a su autor/a/e como reconocimiento.