Valladolid (EFE).- El responsable de Inteligencia Artificial de la compañía Telefónica, Richard Benjamins, ha instado este jueves durante una conferencia en Valladolid a un uso “responsable” y a una “regulación” de la Inteligencia Artificial porque, según ha advertido, “hay cosas que pueden no salir como la gente quiere”.
“Nadie sabe lo que va a pasar y nadie sabía que la Inteligencia Artificial iba a llegar tan rápido, pero es necesario un uso responsable y una regulación o incluso una autorregulación, como decirse a sí mismo que puedo hacer esto pero prefiero no hacerlo”, ha precisado Benjamins, quien ha pronunciado una conferencia sobre la IA y su aplicación en el futuro en un acto organizado por la Cámara de Comercio de Valladolid.
IA en finanzas o salud
Durante su conferencia ha asegurado que la oportunidad de la Inteligencia Artificial es enorme, “en el sector de finanzas, en el sector de salud o en cualquier sector”.
En este contexto, ha precisado que la Inteligencia Artificial no solamente puede servir para mejorar los negocios, por ejemplo, sino que también tiene un impacto potencial en poder mejorar el planeta.
Riesgos de la IA
Sobre los riesgos, ha hablado de algunos que “conocemos todos”, como por ejemplo en el caso de los coche autónomos y si en caso de accidente la culpa es del propietario del coche, del fabricante o del diseñador del software, y ha concluido que “todo eso está en discusión”.
“Hay muchos temas aquí muy complejos, que tenemos que empezar a hablar a nivel de Naciones Unidas o de Comisión Europea, porque están por venir y si no nos preparamos, pues no pueden salir las cosas como queremos”, ha agregado.
Ha indicado también que hay muchas organizaciones que están siendo conscientes de estos problemas y que se ponen reglas, aunque ha subrayado que también están las recomendaciones internacionales de la UNESCO o de la propia Comisión Europea.
Benjamins ha incidido en que puede haber empresas que pueden decidir por su cuenta y que, aunque puedan hacer algo a través de la Inteligencia Artificial, consideran que es mejor no hacerlo “por poder tener impactos negativos en la sociedad y las personas, eso se llama autorregulación”, ha aseverado.
La regulación de la IA
Respecto a la regulación europea, que a grandes rasgos aún no está en vigor y que está en discusión todavía en el Parlamento Europeo, ha indicado que ya se habla de clasificación de riesgos y que si hay un riesgo inaceptable, está prohibido.
En este sentido, ha indicado que en Europa no se puede vigilar o hacer vigilancia masiva con cámaras en la calle buscando criminales y que también está prohibido el uso de la tecnología para, deliberadamente, manipular a personas para crear un daño.EFE