Ibán García del Blanco: “no podemos dar la misma protección” a las obras creadas por humanos que a las hechas por robots.

Fotografía cedida por el grupo socialista en el Parlamento Europeo de Ibán García del Blanco. EFE

Bruselas (EuroEFE).- El eurodiputado Ibán García del Blanco (PSOE) ve como “una gran promesa y una enorme amenaza” la llegada a Europa de la inteligencia artificial, un “cambio civilizatorio” al el que el eurodiputado cree que la legislación debe “anticiparse” para fijar unas reglas de juego en línea con los valores europeos.  Sobre propiedad intelectual dice: “no podemos dar la misma protección” a las obras creadas por humanos que a las hechas por robots.

García del Blanco es el ponente de un informe que está previsto que se apruebe este jueves en el Parlamento Europeo sobre los retos éticos de la irrupción de la inteligencia artificial, una serie de recomendaciones para que la Comisión Europea plantee en los próximos meses legislación para regular esta tecnología.

“Lo que produce la inteligencia artificial, por la magnitud del cambio, es volver a replantearse muchas de las grandes preguntas y llegar a otras conclusiones, o las mismas pero muy matizadas”, señala el eurodiputado, y pone como ejemplo la protección de la propiedad intelectual, ya que “no podemos dar la misma protección” a las obras creadas por humanos que a las hechas por robots.

Tras la aprobación de su informe por la Eurocámara, queda en manos de la Comisión Europea el empezar a avanzar para crear este marco ético. ¿Cuáles son vuestras principales demandas y qué calendario esperáis de la Comisión?

Está previsto que a finales de este mismo año pueda haber una propuesta por parte de la Comisión, pero nuestra intención es que se tenga en cuenta la posición del Parlamento, que probablemente se apruebe en pleno para finales del mes de octubre.
Aquí lo que hacemos es plantear que la inteligencia artificial que se desarrolle o utilice en la Unión Europea (UE) tiene que estar de acuerdo con nuestros valores civilizatorios, con nuestra carta de derechos fundamentales y en cualquier caso tenemos que prevenir que se puedan producir muchos de los riesgos que conlleva una tecnología tan disruptiva y tan bestial. Para eso hemos planteado unos parámetros mínimos que tiene que cumplir sobre todo la inteligencia artificial que se aplica a sectores de alto riesgo, pero en cualquier caso tiene que estar armonizada con nuestros valores básicos, como la sostenibilidad medioambiental a la hora de tomar decisiones o que se tenga en cuenta la perspectiva de género.

China ya ha dejado clara su intención de ser una potencia global en inteligencia artificial y es el primer país en el que estamos empezando a ver en la práctica muchos aspectos de su aplicación en la vida cotidiana. ¿Qué lecciones extraéis del modelo chino, tanto las buenas, cosas que deberían imitarse, como las malas y que será mejor evitar?

Hay una cosa que creo que está haciendo muy bien China, que es invertir muchos recursos. La UE, para poder emular ese potencial inversor, plantea una estrategia entre el sector privado y el sector público. Pero también tenemos que aprender de lo que significa una inteligencia artificial que se desarrolla en un país que no tiene unos valores equiparables a los europeos, los riesgos que conlleva.

Nosotros nos planteamos cuáles son las cuestiones éticas que llevan aparejadas algunas de las tecnologías en desarrollo. Hemos tenido un debate intenso alrededor de temas como el reconocimiento facial, las técnicas de rastreo que estamos utilizando en este momento para combatir la pandemia. Como en tantas cosas, la UE tiene que demostrar que hay una capacidad de equilibrar el desarrollo tecnológico con el desarrollo a unos valores civilizatorios que nos definen como cultura y como pueblo. Estoy convencido de que somos capaces de equilibrar ambas cuestiones y creo además que puede ser un valor añadido que tengan las empresas y las iniciativas europeas en el exterior, que haya un elevado y confiable estándar mínimo de cumplimiento ético en el desarrollo europeo.

Uno de los aspectos que más preocupan a analistas y expertos sobre el avance de la inteligencia artificial son los sesgos inconscientes que los programadores humanos introducen en algoritmos que van a tener un gran impacto en nuestras vidas y generan discriminación de género y racial. ¿Podría ser esto un muro a la hora de legislar?

Es una de las cuestiones que intentamos anticipar. Los sesgos y problemas de discriminación a la hora de tomar determinadas decisiones se producen ya fuera de la inteligencia artificial. La diferencia es que estamos ante algoritmos que plantean una automatización en la toma de decisiones. Si no somos capaces de anticipar ese riesgo, lo que podemos producir es una aceleración de todos los problemas derivados. Pero por otra parte también tenemos una enorme oportunidad para que bajo el escrutinio público seamos capaces de ir desterrando esa clase de sesgos. De la misma forma que tendremos la capacidad también de introducir cuestiones de sostenibilidad medioambiental a la hora de tomar decisiones, y que no solo se tenga en cuenta la optimización del valor económico sino que haya otros muchos valores que como civilización hemos escogido.

¿Cuál es el camino para convencer a la ciudadanía de las potenciales bondades de un uso ético y regulado de la inteligencia artificial?

Yo insisto mucho en la ilustración digital: abandonar un debate o un recurso que creo que se queda muy corto como es el aprendizaje de técnicas digitales para trascender a un conocimiento y comprensión profunda de qué estamos hablando cuando hablamos de inteligencia artificial, qué oportunidades conlleva, qué riesgos tiene y qué modelo de sociedad se puede generar. Creo que es muy importante que hagamos comprensibles algunos conceptos que de momento están solo en el ámbito de debate de los grandes expertos, que lo traigamos un poco a la Tierra. Y que traslademos que estamos siendo muy rigurosos con la regulación europea y lo serán también los países, que nuestra inteligencia artificial no solo genere confianza internamente sino que la genere también en el exterior. Que alguien sepa que cuando está tratando con un producto o una tecnología desarrollada en la UE puede tener confianza en que se van a respetar estándares mínimos en derechos humanos.

¿Cuáles son las principales aportaciones de este informe sobre cómo usar la inteligencia artificial para avanzar en la protección de la propiedad intelectual?

Hay que crear un marco de protección a eso e incluso a las obras que se realicen mediante tecnologías de inteligencia artificial, pero separar ese debate y esas categorías de los derechos de autor entendidos en el sentido clásico, del marco que protege a partir del convenio de Berna del siglo XIX a las producciones artísticas. Tenemos que separar muy bien ambas cosas. En el Parlamento Europeo se han presentado también los compromisos de un informe sobre propiedad intelectual e inteligencia artificial. Una de las conclusiones es que, efectivamente, no podemos darle el mismo grado de protección y la misma naturaleza a las obras que están realizadas sin o con una mínima intervención humana que a las obras artísticas o producciones intelectuales de un ser humano. Tenemos que hacer bien esa diferenciación porque estamos en un momento en el que mediante inteligencia artificial somos capaces de reproducir un cuadro con la misma técnica o estilo de los grandes maestros de la historia. Tenemos el caso de un programa de inteligencia artificial que pasó varias categorías en premios literarios. Lo que produce la inteligencia artificial, por la magnitud del cambio, es volver a replantearse muchas de las grandes preguntas y llegar a otras conclusiones, o las mismas pero muy matizadas. Estamos ante un cambio civilizatorio que no tiene otro parangón que el que produjo la revolución industrial a finales del siglo XVIII. Es muy importante hacer a la ciudadanía partícipe de este cambio y de lo que tenemos por delante porque hay muchas decisiones que vamos a tener que tomar y no demasiado tiempo.

 

¿Cree usted, como apuntan varios pensadores, que estamos en una “bisagra del tiempo”, en un momento clave para la Humanidad?

Estoy de acuerdo. Estamos ante un cambio que es tan impresionante que hace que no seamos capaces de anticipar cuál va a ser el futuro inmediato. Uno de los retos que tendrá la regulación es no quedar desfasados en cuestión de meses (…) Es un concepto muy sintético del momento en el que estamos y lo que se va a producir. Y no hay opción, es mejor que nos adaptemos y tengamos una visión y planteamiento positivo sobre las grandísimas oportunidades que tendremos en materias como salud, como calidad de vida, una mejor relación con nuestros poderes públicos. Estamos ante una gran promesa y una enorme amenaza. tenemos que anticiparnos y asumir el reto.

Edición: Catalina Guerrero

“El contenido del sitio refleja exclusivamente el punto de vista del autor. La Comisión Europea no es responsable del uso que pueda hacerse de la información contenida en el mismo”.

 

“El proyecto fue cofinanciado por la Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) en el marco de la convocatoria de propuestas GR/002/19. “Apoyo a las actividades de sensibilización sobre el valor de la propiedad intelectual y los daños causados por la falsificación y la piratería (2019/C 181/02)”. La EUIPO no participó en su preparación y no es en modo alguno responsable de la información o las opiniones expresadas en el marco del proyecto, ni se considera vinculada a ellas. Los autores, las personas entrevistadas, los editores o los distribuidores del programa son los únicos responsables de ellos, de conformidad con la legislación aplicable. Además, la OEPI no puede ser considerada responsable de ningún daño directo o indirecto resultante de la ejecución del proyecto”.

Supported by

EUIPO