La polémica está servida por el auge de la Inteligencia Artificial (IA) y la aparición de herramientas como el CHATGPT, que utilizan de forma masiva el trabajo de muchos creadores y autores. Esto ha hecho que, junto a los acuerdos para su regulación que están proliferando, como la orden ejecutiva de Biden, el manifiesto del G7 o la declaración de Bletchley de Londres de esta semana hayan aparecido los primeros pleitos judiciales en Estados Unidos.
José María Méndez, socio responsable de la práctica de propiedad intelectual y tecnología en Baker McKenzie, sigue de cerca el desarrollo de la IA en los últimos años. Este jurista, que antes de ser abogado externo estuvo en el mundo audiovisual como abogado in house, reconoce que desde 2017 hay más de un centenar de iniciativas legislativas de regulación de la IA en todo el mundo.
“La problemática es diversa. China estableció sus principios en cuanto a la regulación de la IA; Estados Unidos estableció también en 2020 unos principios esenciales para el desarrollo de la legislación y Europa está ahora en los Triálogos de su futuro Reglamento de la UE. Tenemos tres textos: uno de la CE, otro del Consejo y otro del Parlamento para ponerse de acuerdo en el texto definitivo”.
Desde su punto de vista, “al final, de lo que se trata es de establecer esa serie de principios generales, sobre todo dirigidos a garantizar la seguridad, la protección de datos y la privacidad, sin perjudicar el desarrollo de la tecnología. Es evidente que este equilibrio es complicado, como lo fue en su día la aprobación del Reglamento General de Protección de Datos europeo en materia de privacidad”.
Según señalan los expertos, habría dos enfoques en la regulación de la IA: uno más abierto al negocio y al desarrollo tecnológico, que es el que de alguna forma respaldaba Estados Unidos, y otro más garantista y regulador que proviene de Europa. “A raíz de la reunión del G-7 ha surgido el modelo japonés que es un híbrido entre ambos y en el que se habla de una regulación algo más laxa de la IA en todos los ámbitos”.
La importancia de la Declaración de Bletchley
Ahora, la declaración firmada en la localidad londinense de Bletchley sobre riesgos de la IA ha reunido a representantes y empresas de 28 países, entre ellos Estados Unidos y China, así como la UE, y han firmado el pacto que pretende atajar los riesgos de los llamados “modelos fronterizos de IA”.
A su juicio, “la declaración de Blechtley representa una intención clara de todos los intervinientes de regular la IA en aras a la protección de los derechos fundamentales y del riesgo que su desarrollo descontrolado pudiera representar para la humanidad.
Desde su punto de vista, “la cuestión será ir viendo si los estados trabajan en una regulación que resulte armonizada. Por el momento, mi impresión es que todos identifican el problema de la necesidad de regulación al mismo tiempo que nadie quiere poner puertas al campo para impedir ser los primeros de la clase en innovación”.
Para Méndez, “estamos empezando en ver cómo se va a materializar todo esto. En cuanto a la orden ejecutiva de Biden, subraya derechos a proteger como la privacidad, la seguridad y la no discriminación. No hay nada demasiado novedoso, pese a que son los bienes jurídicos a proteger. Es una orden dirigida a las Agencias Federales, que tienen que legislar. Ahora iremos viendo en qué se materializa en función de los principios que se han marcado.”
En su opinión, los principios de dicha orden “son más flexibles que otras iniciativas como la que se está gestando en Europa, aunque se puede ver cierta tendencia hacia un endurecimiento de la regulación. Habrá que ir viendo lo que sucede. Lo que sí observamos es que todas estas iniciativas tienen un elemento en común como es la protección de la privacidad, la seguridad, que no exista discriminación en el uso de las herramientas y un control exhaustivo de aquellos sistemas que puedan representar un riesgo a los derechos fundamentales y para la humanidad”.
En la mencionada orden de Biden se habla de un control previo. “Habrá que ver cuáles son esos niveles de control que se imponen finalmente y en qué se materializa. Ahí está la cuestión. Igual que la propia regulación europea, de la que ya sabemos mucho, pero habrá que ver su implementación práctica en el futuro para que la legislación sea efectiva”.
Curiosamente, en la regulación europea no hay por el momento ningún aspecto normativo sobre la protección de los derechos de propiedad intelectual, algo que ha sorprendido a algunos expertos.
“La única referencia que he visto en todo este proceso ha sido una resolución del Parlamento Europeo que hablaba del reconocimiento de los derechos por obras generadas por IA. Invitaba a que se intentase regular el reconocimiento de algún derecho. En el Reglamento no hay nada”.
Este experto nos recuerda que, de forma paralela, “se trabaja en la trasposición de una Directiva sobre responsabilidad derivada de los daños producidos por la IA, que ahora se cocina; tampoco hay una referencia específica concreta a los temas de propiedad intelectual”.
Sumar y su propuesta sobre IA
En este contexto, Méndez cree que “en cuanto a soluciones sobre este tema, en primer lugar, sería atenernos a la normativa actual de derechos de propiedad intelectual, de forma que haya que interpretar respecto al uso que se pueda hacer de la IA o ir legislando, como es en el caso español y donde hay una proposición de ley orgánica de Sumar sobre distintos aspectos a regular por el uso de IA.”
En cuanto a dicha proposición, subraya que “acaba de presentarse y plantea en su exposición de motivos que el uso de la IA está produciendo situaciones no deseadas, en particular los deep fakes, que se están produciendo en lo que respecta a manipulación de imágenes. Esa proposición modifica diferentes leyes, incluyendo la Ley de Enjuiciamiento Civil para solicitar la retirada de ese material que pudiera afectar a la imagen, honor o intimidad de las personas”.
Junto a ella, “también se propone modificar la Ley General Audiovisual sobre el uso indebido de imágenes y sonidos generados por la IA, lo que podría acarrear infracciones graves o muy graves. Otra modificación de la Ley de Competencia Desleal, ya que podría ser irregular el uso de imágenes y sonidos para la promoción de productos de IA sin advertir de que se está utilizando la propia IA. La última opción sería una modificación del Código Penal.
En este contexto, cree que “se podría presentar una propuesta específica regulando de manera concreta las posibles vulneraciones de los derechos de propiedad intelectual. Es lo que ha hecho Francia, donde la propuesta se centra en proteger esos derechos como consecuencia del uso de la IA. En este país la SACEM, SGAE francesa, ya anunció su opt out, la prohibición de uso de su repertorio de obras en el uso de las herramientas de machine learning”.
Desde su punto de vista, “hay que ver qué solución se busca para proteger los derechos de propiedad intelectual de esas obras que se utilizan de forma masiva por las herramientas de IA. Ahí podrían entrar las entidades de gestión colectiva. Siempre se ha utilizado en el uso masivo de repertorio, como se ha hecho con las radios musicales y televisiones que tienen sus contratos con las entidades para utilizar ese tipo de contenidos. Habrá que ver si la solución está en dicha gestión colectiva”.
Los pleitos marcarán el camino
Para este jurista, los pleitos que ya están en marcha en Estados Unidos y que enfrentan a desarrolladores de IA con autores y entidades que crean contenidos, pueden ser claves en el devenir de dicha regulación futura. “El negocio siempre va por delante de la legislación. Hace años, la tendencia era la de compartir archivos hasta que se modificó la Ley del Copyright americana, que establecía una serie de normas para la regulación de dicha actividad, fijando los distintos niveles de responsabilidad”.
Méndez reconoce que “ha costado años que tengamos una regulación clara al respecto. Al mismo tiempo, muchos negocios tuvieron que adaptarse en cuanto al daño que se estaba produciendo, como es el caso de la industria musical y la editorial. Al final se consiguió una legislación bastante clara ante estos actos de compartir archivos”.
Desde su punto de vista, “es posible que en este contexto que hablamos veamos de nuevo que el legislador va por detrás, aunque se intenta que ese retraso sea menor. De ahí que exista tanta iniciativa legislativa”.
Sobre los pleitos recuerda que “en Estados Unidos marcarán jurisprudencia, que se convierte en ley y marca tendencia. Sin embargo, en Europa esto es menos habitual y se utiliza especialmente a nivel interpretativo. Estos casos judiciales nos ayudarán a tener una mayor concreción de lo que está pasando. Sabemos que hay pleitos, pero no sabemos específicamente los hechos y los derechos que se están vulnerando en todos estos asuntos que se judicializan”.
A este respecto, considera que “las infracciones pueden estar relacionadas con una mera reproducción de ese contenido por las herramientas de machine learning, una reproducción y además una puesta a disposición o una reproducción con puesta a disposición y transformación del contenido podría ser la otra opción”.
Para este experto, “se trata de determinar si hay vulneración de derechos patrimoniales o incluso de derechos morales, que en países como España y Francia ya existen. En algunas ocasiones no hay infracción patrimonial pero la transformación de la obra puede obligar al juez a tasar la cuantía de esos derechos morales por esa alteración del contenido de dicha obra”.
La IA como elemento transversal y multidisciplinar
En esta conversación con Economist & Jurist, José María Méndez subraya el carácter transversal y multidisciplinar de la IA. “Eso puede hacer que las empresas tengan un especialista en protección de datos; otro en propiedad intelectual, al mismo tiempo hay un tema importante de secretos comerciales en el uso de la IA y hasta qué punto se está introduciendo en el sistema información que puede ser sujeto de secretos comerciales o empresariales”.
Junto a estas cuestiones, detecta “un ángulo laboral importante de la cuestión y otro mercantil por posible responsabilidad de los administradores. La aproximación del abogado interno de cualquier empresa a la IA tiene que ser holística, primero analizando el impacto de la regulación, cómo lo vamos a medir y qué labores debemos desarrollar para la gestión del uso de la IA. Esto obligará a las empresas a definir la política de compliance adecuada.”
Junto a estas cuestiones “será relevante saber si es importante el resultado que generan las herramientas de IA en nuestro negocio. Si la herramienta la ha desarrollado un tercero habrá que ver qué cláusulas y condiciones suscribimos para regular la responsabilidad de dicha IA. La aproximación es global, como puede verse, y los abogados debemos regular esos protocolos de uso interno para las empresas”.
Sobre el centenar de iniciativas legislativas que Méndez y su equipo de abogados de Baker Mckenzie hacen el seguimiento, resalta que “hay cierto temor en su uso y desarrollo porque tiene un impacto directo en derechos fundamentales y en la ética interna de las organizaciones. Eso genera el interés público relevante en que sea regulado de forma conveniente”.
En el caso de Baker McKenzie, como sucede en otros grandes despachos de la abogacía, tras un debate interno se han ido implementado estas herramientas de IA. “Llevamos tiempo manejando herramientas de este tipo para ser más eficientes, por ejemplo, en la gestión de documentación, presentaciones o en sistemas internos de traducción. Al mismo tiempo, contamos con herramientas para redactar due dilligences o borradores de contratos, entre otras cuestiones”.
Respecto a la IA Generativa, cree que se pueden seguir diferentes líneas. “Una supondría la licencia de productos como OPEN AI, que es un CHATGPT para abogados llamado CoCounsel. Nosotros no hemos seguido esa licencia, pero trabajamos en sistemas internos con nuestro propio equipo de machine learning para implementar herramientas que nos ayuden a mejorar nuestra eficiencia como abogados. Mientras tanto, hay sistemas de licencia como el que tiene Microsoft, que ya incorpora herramientas de IA con notables medidas de seguridad”.
Este experto recuerda que “los abogados no podemos introducir en cualquiera de los sistemas de IA existentes en el mercado la información de los clientes que en muchos casos tiene carácter sensible. Rompería nuestro compromiso y obligación de confidencialidad. Este tipo de cuestiones lo que hace es ralentizar el desarrollo de estas herramientas en la abogacía de los negocios. Habrá que ver cuál es realmente el encaje de esta tecnología en los despachos de abogados”.