Miguel_Ortego
Robots & Artificial Intelligence

Europa avanza en un modelo de IA ético y responsable

En un entorno cada vez más tecnológico y electrónico es más que nunca esencial no descuidar las denominadas ciencias humanas o «humanidades», en particular la ética y la moral respecto de la que por ahora es la reina de las tecnologías disruptivas: la Inteligencia Artificial («IA»).

La IA permitirá que los vehículos, aviones o trenes realicen los desplazamientos de manera autónoma, sin necesidad de un humano que los pilote, los médicos robóticos diagnosticarán enfermedades tan importantes como el cáncer, dispondrán el tratamiento e, incluso, realizarán intervenciones rutinarias; o, por poner un último ejemplo, muchos litigios repetitivos y automatizadles serán resueltos por los jueces humanoides. La IA es el mayor avance que vamos a vivir como generación pero, al mismo tiempo, el mayor reto al que nos enfrentamos en la propia supervivencia humana. Y aquí es donde la ética es esencial.

Las principales cuestiones a las que nos enfrentamos cuando hablamos de todas estas tareas realizadas por un Sistema de Inteligencia Artificial («SIA») pasar por conocer si podemos confiar en ellos, si el algoritmo que los manera no estará sesgado, si son seguros frente a ciberataques o si nuestra privacidad está a salvo, entre otras.

La Unión Europea («UE») ha tomado muy en serio la IA y está en pleno proceso de desarrollo de una normativa al respecto (a través del denominado High-Level Expert Group). En esta tarea, quiere ser el líder mundial en un IE ética y responsable. Entre otros avances, ha publicado unas guías para el desarrollo de una IA ética y en la que se pueda confiar.

Siguiendo el ejemplo de la UE, otros grandes países como EE.UU., UK, China, India o Japón, están afrontando este reto también desde una perspectiva ética y moral. En una reciente entrevista para Forbes, Saskia Steinacker (Global Head of Digital Transformation at Bayer), miembro del High-Level Expert Group, nos desvela las claves de este apasionante proyecto, entre las que destaca la apuesta por la creación de una Agencia Europea de la IA que controle y supervise el proceso, así como la importancia de que los nuevos SIA que se generen sean respetuosos con los derechos humanos.

En esta línea, las Universidades inglesas con mayor tradición en la eseñanza (Oxford y Cambridge principalmente) están trabajando arduamente en el desarrollo de un paradigma ético que permita que las futuras IA no supongan un riesgo para la humanidad y proteger a ésta de los humanoides.

En Oxford, Nick Bostrom, profesor de filosofía y polímata, ha creado el Instituto para el Futuro de la Humanidad cuya misión principal es asesorar acerca de lo peligrosa que puede ser la IA para la especie humana y otras posibles amenazas provenientes de otras tecnologías. En Cambridge, los expertos se están centrando, a través del Centro para el Estudio de Riesgos Existenciales, en las armas biológicas pandemia y la IA.

Imagen: República.com

49 Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *