Ética e inteligencia artificial – Estrategia Europea AI

El vertiginoso avance de las TIC, los dispositivos y software para el procesamiento masivo de datos y el debate heredado durante décadas sobre la democratización del conocimiento han derivado en aspectos de carácter más profundo como es la determinación del YO y la necesidad de salvaguardar la humanidad tal y como la conocemos hoy en día CORVALÁN, J. G. (2017). Si bien, la Inteligencia Artificial (IA) se nutre de todos los datos generados en una Sociedad de la Información que ha generado grandes asimetrías sociales Montero Mesa, L., & Gewerc Barujel, A. (2011), es el aspecto cognitivo de la misma lo que suscita graves conflictos de identidad Hueso, L. C. (2017). La sociedad contempla una IA tal como nos han mostrado siempre las películas, donde los algoritmos razonan y toman sus propias decisiones hasta apoderarse de nuestras vidas. Este escenario distópico que está generando una nueva tecnología disruptiva junto a las grandes crisis económicas que están azotado el estado de bienestar en todas sus modalidades S. Morales, Mª Rosario, & Díaz Moreno, Verónica. (2017), han ido debilitando la confianza de las empresas y en mayor parte de la sociedad civil sobre sus gobernantes. Ética e inteligencia artificial

Ética e inteligencia artificial en la EU.

En enero del 2016 el Foro Económico Mundial público el informe The future of jobs: employment, skills and workforce strategy for the fourth industrial revolution, donde revela una posible destrucción de 5,1 millones de empleos entre 2015 y 2020 derivado de estas tecnologías disruptivas (móvil, inteligencia artificial, robótica, biotecnología, nanotecnología, nuevas fuentes de energía, realidad aumentada, etc.”

En medio de todo este caos donde se prevé que cambiará radicalmente la vida laboral, la vida familiar y las relaciones sociales, estratificando aún más si cabe la sociedad y generando importantes desequilibrios en las relaciones económicas mundiales. La comunidad científica y la sociedad civil abogan por una regularización del uso y desarrollo de la IA y la robótica mediante la creación de una gobernanza éticamente responsable que permita a la sociedad civil guiar el rumbo de su evolución y ser dueños de su propio conocimiento. Y de esta forma también evitar la acumulación de poder por parte de los estados y las grandes empresas tecnológicas que hoy por hoy autorregulan y lideran el devenir de la humanidad.

 “A través de la asociación Future of life, diversas personalidades del mundo de la ciencia y tecnología (Elon Musk y Stephen Hawking, Demis Hassabis, Shane Legg, Mustafa Suleyman, Billy Gates, …) publicaron en 2015 una carta abierta donde exponían la necesidad de supervisar el uso de la IA en la construcción de armas automatizadas. A esta carta se añadió un informe donde, por una parte saca a la luz los posibles riesgos de una IA no controlada por los humanos. Y al mismo tiempo, proclama la potencia de esta tecnología orientándola a mejorar la vida de los ciudadanos. En la misma línea, en agosto de 2017, se llevó a cabo Melbourne la “International Joint Conference on Artificial Intelligence” (IJCAI). Donde los 116 fundadores de empresas de robótica e inteligencia artificial firmaron una carta dirigida a las Naciones Unidas con el mismo fin.”

“En un estudio realizado en 2019 por el Centro para la Gobernanza del Cambio en IE University (European Tech Insights 2019) destaca la gran preocupación de los ciudadanos por cómo y cuándo desaparecerán sus puestos de trabajo, y que control se realiza sobre toda la información que almacenan las empresas tecnológicas y los estados. Y subrayan la necesidad de crear con urgencia una regularización para el desarrollo y uso de esta tecnología con el fin de proteger los derechos humanos y su bienestar. Este estallido de nerviosismo llega hasta el punto de ordenar a sus estados la necesidad de proteger ante todo su seguridad y los derechos humanos

En el panorama actual, el futuro pasa por el desarrollo de una ética de la IA que guie en favor de la prevalencia de la humanidad y que derivé a unas políticas públicas que busquen un equilibrio entre el progreso y la seguridad de los derechos fundamentales y valores humanos.

A lo largo de 2018 y 2019 todos los estados han elaborado y publicado sus principios éticos y una hoja de ruta con diferentes actuaciones para fomentar y financiar las innovaciones en el campo de la IA y la Robótica. La india, por ejemplo, centra su estrategia en la oportunidades económicas y mejora de la sociedad, invirtiendo en centros de excelencia que consiga paliar la gran analfabetiación tecnológica. Po otra parte, Francia y Canadá centran sus estrategias en el emprendimiento, la gobernanza y ética del uso responsable de la inteligencia artificial. Para este cometido, Francia ha realizado un plan de inversión de 1.625 millones de euros, y Canadá ha reforzado su Estrategia de Inteligencia Artificial Pan-Canadiense (CIFAR) con más de 100 millones de euros. En el Reino Unido se ha creado un Comité de la Cámara de los Lores sobre IA y una fuerte estrategia en financiación para las empresas, investigaciones y talentos en IA creando cursos especializados en IA para universitarios, además de instaurar fondos para aquellos estudiantes que están cursando un doctorado.

Ajenos a las pretensiones de la sociedad por una regularización y legislación del uso de la IA. Las grandes naciones como EEUU y China están enfrascadas en una nueva guerra comercial y tecnológica que les permita situarse como el primer líder mundial de innovaciones en IA. Para ello, las dos naciones han ido desarrollando desde 2016 diferentes estrategias en IA. Mientras que EEUU, siendo fiel a su paradigma neoliberal, cultura de emprendimiento y orgullo nacional, apuesta por una autorregulación, dejando hasta la fecha en manos de iniciativas privadas e inercia de mercado su desarrollo estratégico. China, con una economía capitalista monopolizada por el partido socialista desafía al gigante americano a través de sus grandes empresas tecnológicas con una estrategia agresiva y una inversión de 150 mil millones de dólares en diferentes ámbitos como son: I+D, industrialización, talento, educación y adquisición de habilidades, estandarización, ética y seguridad.

En la cola de salida se encuentra una Unión Europea, con una cultura menos proclive al emprendimiento e innovación, arrastrada por los países del sur de Europa, y más institucionalista.  Se considera la necesidad de influir en el sistema económico para facilitar avances en IA. De esta forma, el Parlamento Europeo desea empujar la transformación de su tejido productivo con millonarias financiaciones (un mínimo de 20 000 millones EUR anuales durante la próxima década) generando un estado de confianza que coloca a la persona en el centro del desarrollo de la IA. Y que permita incentivar a las empresas a invertir en IA, fomentar su investigación y tratar de hacer crecer el empleo mejorando sus competitividad internacional. Para ello, la Comisión Europea puso en marcha en junio de 2018 un grupo de altos expertos, para debatir junto a la industria, institutos de investigación y autoridades de los estados miembros, los desafíos de la inteligencia artificial y su impacto dentro de la Unión Europea.  En diciembre de 2018 los estados miembros firmaron un acuerdo de cooperación (plan coordinado sobre la inteligencia artificial) para fomentar la colaboración entre los estados y agentes implicados con el fin de aumentar las inversiones públicas y privadas. Su objetivo es invertir 20 000 millones EUR anuales durante la próxima década que será regulado tanto por el programa Horizon2020 y el subsiguiente Digital Europe mediante una reinversión de 1000 millones de euros anuales. En concreto el siguiente programa “Digital Europe” estará orientado a que las pymes puedan también optar a las oportunidades que ofrece la tecnología de IA modernizándose y adaptándose a la nueva era. Para ello, se pretende crear polos de innovación digital, instalaciones de ensayo y experimentación reforzadas, espacios de datos y programas de formación. El pasado abril de 2019 la Comisión Europea público un comunicado final con las estrategias y pasos a seguir para el desarrollo de la IA en Europa y crear una fase piloto global:

  • Generar un estado de confianza centrado el desarrollo de la IA en el ser humano creando un marco normativo que garantice:
    • La fiabilidad de los desarrollos de IA tomando tres requisitos fundamentales: 1) debe ser conforme a la ley; 2) debe respetar los principios éticos; y 3) debe ser sólida.
    • Evitar la discriminación algorítmica y Los derechos fundamentales que se reflejan en el respeto de la dignidad humana, la libertad, la democracia, la igualdad, el Estado de Derecho y el respeto de los derechos humanos. Y que prevalezca ante todo el pluralismo, la no discriminación, la tolerancia, la justicia, la solidaridad y la igualdad.
    • La seguridad de los datos con la adopción del nuevo Reglamento de Ciberseguridad.
    • La privacidad con el reglamento de la privacidad y las comunicaciones electrónicas.
    • Facilitar la libre circulación de datos no personales suprime barreras a la libre circulación de este tipo de datos y garantiza el tratamiento de todas las categorías de datos en cualquier lugar de Europa.
    • Empoderar a los ciudadanos permitiendo tomar a estos la decisión final, teniendo claro que las decisiones adoptadas mediante algoritmos pueden dar datos incompletos y, por tanto, no fiables, que pueden ser manipulados por ciberataques, pueden ser sesgados o simplemente estar equivocados. Y por tanto serán estas personas las responsables de los daños causados a terceros.
  • Creación de un marco ético y jurídico para el uso de la IA que prevalezca como modelo internacional. Y que cumpla unas directrices éticas basados en los valores de la UE y en línea con la Carta de los Derechos Fundamentales de la UE. Y de obligado cumplimiento por parte de los desarrolladores, proveedores y usuarios de la IA. Y que garantice la diversidad en cuanto al género, el origen racial o étnico, la religión o las creencias, la discapacidad y la edad. Los requisitos que por tanto deben prevalecer en los desarrollo de las soluciones de IA deben ser:
    • Intervención y supervisión humanas
      • Los sistemas de IA no deben disminuir, limitar o desorientar la autonomía humana.
      • Debe ser primordial el bienestar social del usuario.
      • Lo sistemas de IA no pueden socavar la autonomía humana siendo estos los últimos en tomar las decisiones.
      • Mantener una gobernanza que permita la participación, el control y la supervisión humana.
    • Solidez y seguridad técnicas
      • Deben ser fiables y resilientes ante posibles ataques en el sistema, el algoritmo y el proceso en conjunto.
      • Crear planes de contingencia
      • Control sobre la toma de decisiones del proceso de IA, tal que las mismas sean reproducibles por un auditor.
      • Ellos procesos deben ser verificablemente y seguros en cada fase, teniendo muy presente la seguridad física y psicológica de todos los afectados.
    • Privacidad y gestión de datos
      • Garantizar la privacidad y la protección de datos en todas las fases del ciclo vital del sistema de IA.
      • Los usuarios deben tener el pleno control sobre sus propios datos ofreciendo mecanismos de revocación y modificación.
      • Salvaguardar la privacidad de los datos personales y su integridad. Auditar los datos y garantizar la calidad del sistemas de IA que los procesa.
    • Transparencia
      • Garantizar la trazabilidad de los algoritmos y sistemas de IA. Sobre todo del porque de las decisiones tomadas por el algoritmo.
      • Aportar la explicabilidad del proceso de la toma de decisiones del algoritmo.
      • Comunicar adecuadamente las capacidades y limitaciones del sistema de IA sobre todo a los cliente y usuarios.
    • Diversidad, no discriminación y equidad
      • Evitar sesgos históricos involuntarios que crearan una discriminación directa o indirecta sobre los grupos más desfavorecidos.
      • Creación de una gobernanza que permita la participación ciudadana en el rubo de evolución de la IA.
    • Bienestar social y medioambiental
      • Impacto medio ambiente y otros seres sensibles.
      • Responsabilidad ecológica facilitando la biodiversidad y creando entornos habitables.
      • Evaluación de impacto de las solución de IA sobre la sociedad en su conjunto.
    • Rendición de cuentas:
      • Normativa de responsabilidades ante actuaciones fallidas.
      • Las soluciones de IA deben ser Auditados mediante auditores externos o internos generando informes de evaluación de su fiabilidad.
      • Evaluación de impactos negativos.
    • Mantener una perspectiva común con los 23 principios de Asilomar.
    • En cuanto al uso de la robótica, prevalecer las siguientes directrices:
      • Proteger a los humanos del daño causado por robots: la dignidad humana.
      • Respetar el rechazo a ser cuidado por un robot.
      • Proteger la libertad humana frente a los robots.
      • Proteger la privacidad y el uso de datos: especialmente cuando avancen los coches autónomos, los drones, los asistentes personales o los robots de seguridad.
      • Protección de la humanidad ante el riesgo de manipulación por parte de los robots: Especialmente en ciertos colectivos –ancianos, niños, dependientes- que puedan generar una empatía artificial.
      • Evitar la disolución de los lazos sociales haciendo que los robots monopolicen, en un cierto sentido, las relaciones de determinados grupos.
      • Igualdad de acceso al progreso en robótica: Al igual que la brecha digital, la brecha robótica puede ser esencial.
      • Restricción del acceso a tecnologías de mejora regulando la idea del transhumanismo y la búsqueda de mejoras físicas y/o mentales
    • Creación de un plataforma digital en la cual los estados puedan intercambiar experiencias faciliten la investigación científica y la innovación. En esta plataforma concurrirán banco de datos, algoritmos, sistemas, procesos que permita el acceso y uso de la IA a todos y en especial a las pymes. En este sentido y con gran influencia de Francia se ha creado la plataforma IA4EU  financiado por el programa europeo Horizonte 2020
    • Reforzar la excelencia investigadora a través de redes de centros europeos de excelencia en investigación en IA.
    • Acelerar la asimilación de la IA a través de centros de innovación digital (DIH)

BIBLIOGRAFIA

CORVALÁN, J. G. (2017). Inteligencia Artificial y derechos humanos (Parte I). Diario DPI Cuántico, Diario Constitucional y Derechos Humanos, Ciudad Autónoma de Buenos Aires, (156).

Hueso, L. C. (2017). Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales. Dilemata, (24), 131-150.

  1. Morales, Mª Rosario, & Díaz Moreno, Verónica. (2017). El futuro del Estado de Bienestar en Europa. Index de Enfermería26(3), 190-194. Recuperado en 01 de agosto de 2019, de http://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S1132-12962017000200015&lng=es&tlng=es.

Montero Mesa, L., & Gewerc Barujel, A. (2011). De la innovación deseada a la innovación posible. Escuelas alteradas por las TIC.

You don't have permission to register