El vicepresidente de la Asociación Española para la Inteligencia Artificial (AEPIA), Luis Magdalena, este martes, en el encuentro "El impacto de la IA generativa en la industria creativa y cultural europea". EFE/ David Fernández

La IA generativa necesitará mayor implicación del factor humano para evitar riesgos

Madrid, (EFE).- Los riesgos, la formación y la gobernanza sobre la Inteligencia Artificial (IA) han sido los ejes de las reflexiones del encuentro informativo ‘El impacto de la IA generativa en la industria creativa y cultural europea’, organizado esta tarde por la Agencia EFE y Panodyssey, en el que los panelistas han abogado por dotar de una mayor implicación humana a esta herramienta.

De esta forma, el vicepresidente de la Asociación Española para la Inteligencia Artificial (AEPIA), Luis Magdalena, ha querido dejar claro que “la creatividad no está en la IA, está en quien lo utiliza”, por lo que para él, ante el debate de posibles sesgos, el problema está en los desarrolladores.

“Una máquina no sabe lo que es verdad o mentira, no tiene ese concepto, no nos puede engañar. Entonces, ¿quién nos engaña? El que desarrolla esa tecnología, por eso tenemos que prevenir los riesgos”, ha advertido.

Una gran cantidad de datos necesarios

De esta forma, la ingeniera de investigación en aprendizaje automático de Clibrain Labs, María Grandury, ha ahondado en que se necesitan “más y más datos para entrenar estos modelos”, lo que nos hará entrar en “un bucle” en el que se necesiten mucha información para mitigar sesgos relacionados con el género o la raza, por ejemplo.

En cuanto a la gobernanza, la directora general de Hootsuite en Francia e Iberia, Romina González Galetto, ha destacado como tema importante la transparencia en el uso de la herramienta y ha solicitado la regulación sea global, a partir de unas pautas “que nos alinee a todos como creadores de tecnología”.

Si bien los expertos consideran complejo este último párrafo, debido a la falta de acuerdo en la materia entre regiones como Estados Unidos, China o la Unión Europea, han considerado entonces que la educación tecnológica será un pilar en el desarrollo adecuado de la IA.

Fotografía de los participantes este martes, en el Encuentro Informativo “El impacto de la IA generativa en la industria creativa y cultural europea” en colaboración con PanOdyssey, en Madrid. EFE/ David Fernández

Contar con las comunidades menos representadas

La directora de Contenidos Digitales de la Agencia EFE, Desirée García, ha argumentado que “lo lógico” sería trabajar con las comunidades menos representadas en la recogida de datos para que “aporten su conocimiento y ayude a generar una gobernanza mundial inclusiva”.

En la segunda parte de este encuentro informativo, han participado la directora interina de EIT Culture & Creativity para la región suroeste, Àurea Rodríguez; el fundador de Panodyssey, Alexandre Leforestier; la analista de negocio en Dinarys, Anna Vakulenko; y la comisaria europea de Innovación, Investigación, Cultura, Educación y Juventud, lliana Ivanova.

2.000 millones para la IA

Precisamente, Ivanova ha asegurado que desde la Comisión Europea apoyan “la buena utilización de la IA para la cultura y el talento creativo”, para el que destinarán más de 2.000 millones de euros en su plan que abarcar desde 2021 a 2027.

“Lo primero será establecer un marco normativo para el uso ético de la inteligencia artificial, la legislación digital de la UE puesta en marcha hace unos meses acordó luchar contra los contenidos ilegales, incluida la defensa de los derechos de autor”, ha remarcado durante su intervención.

Una corriente a la que se sumó el fundador de la red social Panodyssey, ya que tras “cuatro años de trabajo intensivo” añaden un programa amplio basado en IA que distribuye contenido “en un entorno fiable con datos fiables”.