Logroño, (EFE).- La inteligencia artificial (IA) ya ha revolucionado muchas de las rutinas a las que las personas están acostumbradas y en el futuro su impacto será mayor, por lo que “hay que aprender a convivir” con esta tecnología y “poner ciertas normas éticas para que esa convivencia sea sana”.
Así lo ha considerado, en declaraciones a los periodistas, la presidenta y fundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (Odiseia), Idoia Salazar, que este jueves ha intervenido en el curso de verano que organiza la Guardia Civil en la Universidad de La Rioja sobre seguridad e inteligencia artificial.
La sociedad “ya está siendo consciente” del impacto de la IA a través del “chatgpt”, según Salazar, quien cree que “se está intentando desarrollar una normativa” para que “empresas e instituciones puedan seguir usando esta tecnología de una forma ética y sana” y uno de los principales avances es el borrador del reglamento sobre esta materia que ultima la Comisión Europea.
El miedo a la IA “sin duda está justificado”, ha considerado, “pero por el desconocimiento sobre el impacto de esta tecnología” y porque “estamos llenos de prejuicios derivados de la ciencia ficción”, por lo que “hay muchas personas que se sienten asustadas, con razón, porque la sociedad no está preparada y educada para poder asumir todo ese impacto”.
Ha abogado por “un esfuerzo común de los centros educativos, de las universidades, de los colegios y de las instituciones para intentar educar a la sociedad” y, así, “conocer qué es lo que realmente nos puede afectar negativamente y cómo aprender a utilizar correctamente esta tecnología y saber cuáles son sus riesgos reales”.
Cree que se puede empezar a enseñar a los niños y a las personas mayores de qué manera incide sobre ellos el uso de los datos.
De hecho, ha afirmado, “existe una carta de derechos digitales en España, pero muy pocos sabemos cómo llevarla a cabo” y “eso es una labor de educación, que se tiene que hacer con un impulso por parte de las administraciones”.
“Hay que dejar de hablar de la IA como si fuera un ente autónomo porque quien toma las decisiones, al final, son los humanos”, ha asegurado, por lo que “hay que tener cuidado con los datos de entrenamiento del algoritmo y hacer una supervisión durante todo el proceso de entrenamiento del diseño”.