[quads id=1]

Tras el escándalo de Cambridge Analytica, que obtuvo acceso sin permiso a los datos personales de 87 millones de usuarios de Facebook, se reabrió el debate sobre la necesidad de regular el uso de la Inteligencia Artificial (IA). Elon Musk, CEO de Tesla y SpaceX, ha afirmado que el desarrollo de la IA “es mucho más peligroso que el de ojivas nucleares” y se ha manifestado a favor de la creación de algún tipo de regulación y muchos políticos e investigadores se han sumado a este pedido.

El Parlamento Europeo fue la primera institución que propuso, en febrero de 2017, una regulación a la Inteligencia Artificial con seis presupuestos básicos, sobre todo para la robótica: toda IA deberá tener un interruptor de emergencia para no llegar a representar un peligro; la tecnología no podrá dañar a un humano; no deben crearse vínculos emocionales con ella; los robots tendrán derechos y obligaciones como “personas electrónicas”; los de mayor tamaño deberán tener un seguro obligatorio; y toda IA pagará impuestos.

Frente al debate actual, el Reino Unido ha decidido liderar el camino para evitar el uso peligroso y poco ético de la tecnología. La Cámara de Lores ha publicado en mayo, un informe con cinco principios éticos que deberían ser aplicados:

  1. La IA debe desarrollarse para el bien común y el beneficio de la humanidad;
  2. Debe operar según los principios de inteligibilidad (transparencia técnica y explicación de su funcionamiento) y equidad;
  3. No debe utilizarse para disminuir los derechos de propiedad de los datos o la privacidad de las personas, las familias o las comunidades;
  4. Todos los ciudadanos deben tener derecho a ser educados para permitirles prosperar mental, emocional y económicamente junto con la IA; y
  5. Nunca debería conferirse a la IA el poder autónomo para herir, destruir o engañar a los seres humanos.

Timothy Francis Clement-Jones, uno de los responsables del informe británico, dice que “el objetivo no es convertir esos principios directamente en legislación, sino tenerlos como un faro de guía para la regulación de la IA”.

Otra preocupación de los británicos es la creación de monopolios de datos, es decir, grandes compañías multinacionales (el informe nombra a Facebook y Google) con tal control que puedan construir mejores IA que cualquier otra entidad, creando un círculo vicioso en el que las empresas más pequeñas y las naciones no puedan competir.

“Básicamente, queremos que exista un mercado abierto en la IA…No queremos tener cinco o seis sistemas principales y que quien no pertenezca a uno de ellos no pueda sobrevivir en el mundo moderno” dice Clement-Jones.

Fuente: Opend Mind