Madrid, 17 de febrero de 2022. OdiseIA -el Observatorio Del Impacto Social y Ético de la Inteligencia Artificial-, y PwC han lanzado hoy, con la colaboración de Google, Microsoft, IBM y Telefónica, la primera Guía de buenas prácticas para el uso de la Inteligencia Artificial ética elaborada en España. La guía es el primer resultado de una iniciativa que tiene como objetivo generar un ecosistema donde cualquier empresa/entidad pueda integrarse para compartir y conocer las mejores prácticas en el uso Inteligencia Artificial (IA) atendiendo a principios éticos y preceptos normativos. La presentación ha contado con la participación y el apoyo de Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial (SEDIA), que ha asegurado que “la IA nos presenta un nuevo escenario lleno de grandes incertidumbres que abordaremos desde una firme vocación ética y humanista".
El documento ha sido elaborado por un equipo multidisciplinar de más 30 de profesionales integrado por tecnólogos, juristas, y expertos en distintos campos de las citadas compañías y recoge un detallado estudio y un análisis jurídico de los principios éticos que aplican a la Inteligencia Artificial, realizado a partir del análisis de 27 iniciativas en todo el mundo. Pero, además, para aterrizar estos conceptos en el día a día de las empresas, incluye las tecnologías, herramientas y recomendaciones de Google, Microsoft e IBM para su gestión, así como la experiencia de Telefónica en este ámbito.
La guía cuenta con el apoyo de la Secretaría de Estado de Digitalización e Inteligencia Artificial, y responde al compromiso anunciado, el pasado 20 de noviembre, por parte de OdiseIA para su puesta en marcha. En los últimos tiempos, han ocurrido hechos importantes que han remarcado todavía la necesidad de esta iniciativa:
Más allá de la responsabilidad proactiva de las empresas en adoptar la IA de manera ética y responsable (algo que es necesario), ya se vislumbra la necesidad de estar preparados para cuando entren en vigor las obligaciones marcadas por la ley. A este respecto, iniciativas como la guía pueden ayudar a las empresas a conseguirlo.
El próximo paso de la Guía de buenas prácticas para el uso de la Inteligencia Artificial ética consistirá en aterrizarla a los distintos sectores de la actividad económica en nuestro país. De hecho, ya ha dado comienzo la segunda fase del proyecto encaminado a adaptarla a diez sectores empresariales de la mano de más de 50 empresas, empezando por los de seguros, publicidad y salud.
Para Juan Manuel Belloto, director de OdiseIA responsable de la iniciativa GuIA, “Las empresas, al igual que tienen políticas de comportamiento para sus empleados, tienen la responsabilidad de que su IA esté desarrollada bajo principios éticos. Al igual que en la sociedad, a la ética es necesario acompañarla de legislación. Y por primera vez la legislación no se está dejando esperar, un claro síntoma de su importancia en la IA. Otro síntoma de la importancia de este reto es ver como empresas con muchos negocios solapados se unen en GuIA para abordar este reto de forma conjunta.”
Para Idoia Salazar, presidenta de OdiseIA, “la IA está presente en muchos aspectos de nuestro día a día, algunos de ellos muy relevantes, pero si no se utiliza correctamente puede tener consecuencias poco deseables. Por ejemplo, la perpetuación de estereotipos o malas prácticas sociales, como la discriminación de minorías, razas o géneros, la opacidad de algunos de sus algoritmos, o la excesiva autonomía dada a estos sistemas. Por estos motivos es necesario el desarrollo de la ética asociada a la IA”.
“El uso ético y responsable de la Inteligencia Artificial es una obligación para cualquier compañía, y en los próximos años, con la aplicación de regulación específica no existirá la posibilidad de no prestar atención a este tema. Creemos que la aportación de la guía es fundamental para generar comunidad, y articular un espacio en el que entre todos contribuyamos desde diferentes puntos de vista al desarrollo de un marco de trabajo sólido y apoyado en el uso de buenas prácticas."
"La máxima de cualquier regulación de la Inteligencia Artificial debe fundamentarse en lograr los máximos beneficios para las personas, por lo que la involucración proactiva de todos en su desarrollo, implementación y correcta contextualización es clave para el futuro. Cómo se defina e implemente su marco normativo dependerá de nuestro ejercicio responsable como sociedad democrática y defensora de los derechos humanos".
“La inteligencia artificial es una tecnología que nos ayuda a enfrentar desafíos globales que van de la sostenibilidad a la accesibilidad pasando por la educación o la salud. La ética y la regulación son partes centrales en este avance y, por eso, apoyamos y participamos en proyectos como GuIA cuyo objetivo es facilitar el acceso de todos al conocimiento y a las herramientas que les permita desarrollar sus productos y servicios con responsabilidad”.
“Creemos en el potencial de la Inteligencia Artificial para mejorar nuestras vidas y tenemos que hacerlo para el beneficio de todos. Por primera vez tenemos sistemas que asumen el papel que juegan las personas, y debemos examinar los efectos sobre las personas y la sociedad. Responsible AI es la estrategia que adoptamos para desarrollar e implementar nuestra tecnología de manera que se cumplan nuestros principios de equidad, confiabilidad, privacidad y seguridad, transparencia, responsabilidad e inclusión y que sea accesible para todas las personas”.
"Hay que tener presente que el propósito de la IA es aumentar la inteligencia humana, que los datos y los conocimientos generados deben pertenecer a su creador, y que tecnologías tan nuevas y potentes como la IA deben ser transparentes, explicables y libres de sesgos perjudiciales para las personas si queremos que la sociedad confíe en ellas. Estos principios son fundamentales, pero estamos ya en un momento en el que hay que ir más allá y pasar a aspectos prácticos de implementación, a nivel de procesos y de tecnología, para poder gestionar y gobernar las soluciones de IA a lo largo de todo su ciclo de vida. Por ello, desde IBM aportamos procesos, servicios y una suite de herramientas específicas, nacidas de IBM Research y disponibles para todo el mundo, segmentadas en cinco áreas clave -explicabilidad, equidad, robustez, transparencia y privacidad- que han quedado muy bien descritas en la GuIA de OdiseIA”.
“El impacto que la Inteligencia Artificial va a tener en todos los sectores e industrias está ya fuera de toda duda, pero queda mucho camino a recorrer en formar a las organizaciones y a su fuerza de trabajo. Aplicar principios éticos en el campo de la Inteligencia Artificial se convertirá más en un deber que en una oportunidad para las compañías: si no tienes una IA ética, no existirás. Hay que capacitar a las organizaciones en lo que implica la aplicación de principios éticos en la Inteligencia Artificial. Éstos comienzan desde el mismo momento que las compañías recogen datos de los clientes hasta el momento de elección y aplicación de un algoritmo. La ética en la Inteligencia Artificial asegurará que esa caja negra (black box) en la que en ocasiones se posiciona a la Inteligencia Artificial, deje de serlo”.
“En Telefónica nuestros principios sitúan a las personas en el centro y garantizan el respeto de los derechos humanos en cualquier entorno y proceso en el que se use la inteligencia artificial. Así, estamos trabajando para implementar, sobre la base ya existente de Privacidad por Diseño, una capa adicional que denominamos Ética por Diseño. En ella, implementamos técnicamente los valores y principios éticos durante el ciclo de vida de nuestros productos de Inteligencia Artificial, además de definir las técnicas organizativas necesarias para su consecución”.
Fernando Natera, head of External Communication
es_pwcprensa@pwc.com
+34 915 684 493
+34 915 684 340