
Search Results
44 resultados encontrados
- La inclusión digital no es un lujo, es un derecho.
Hoy damos un paso firme hacia un futuro más justo con el lanzamiento del Proyecto COPID, una iniciativa destinada a garantizar la igualdad digital para todos, sin importar las circunstancias. Desde OdiseIA, en colaboración con la Universidad Carlos III, la Fundación ONCE y RED.ES, nos comprometemos a transformar los principios de la Carta de Derechos Digitales de España en acciones concretas. El proyecto se puso formalmente en marcha el pasado viernes 11 de octubre en el auditorio de la Fundación ONCE, con la participación del director general de RED.ES, Jesús Herrero Poza; la Secretaria General de la Fundación ONCE, Virginia Carcedo; Francisco Bariffi, Profesor e Investigador Posdoctoral de la Universidad Carlos III de Madrid; y Fabián García Pastor, Director de formación de OdiseIA. COPID nace con una misión clara: no dejar a nadie atrás . En una sociedad donde la tecnología se ha convertido en el centro de nuestras vidas, la inclusión digital debe ser universal. No se trata solo de acceso, sino de oportunidades, de asegurar que los derechos digitales sean efectivos y protejan a todas las personas, especialmente a quienes se encuentran en situación de vulnerabilidad. En OdiseIA, estamos comprometidos con aportar nuestra experiencia en ética e inteligencia artificial. Nuestro objetivo es garantizar que la tecnología se desarrolle de manera inclusiva, respetando principios éticos y evitando que los avances profundicen las desigualdades existentes. COPID es un proyecto colaborativo donde actores gubernamentales, sociales y privados trabajan juntos para convertir la igualdad digital en una realidad palpable. El proyecto COPID se estructura en cinco Comunidades de Práctica (CoP), cada una enfocada en un derecho clave de la Carta de Derechos Digitales: Derecho a la igualdad y a la no discriminación en el entorno digital Derecho de acceso a Internet Protección de niños, niñas y adolescentes en el entorno digital Accesibilidad universal en el entorno digital Brechas de acceso al entorno digital Desde OdiseIA, Maite Sanz de Galdeano, Patricia Llaque, Richard Benjamins y Fabián García Pastor están trabajando junto a otros actores clave para asegurar que cada una de estas CoPs transforme las directrices de la Carta en acciones concretas. Además de los socios principales - Fundación ONCE, Universidad Carlos III de Madrid y OdiseIA - el proyecto cuenta con la participación de representantes del Tercer Sector de Acción Social en España. Nos sentimos orgullosos de formar parte de COPID, aportando nuestra experiencia para garantizar que la transformación digital esté al servicio de todos y no deje a nadie atrás. Queremos construir un entorno digital donde cada persona, sin importar su origen, edad o capacidad, tenga las mismas oportunidades para desarrollarse y tener éxito. Os invitamos a conocer más sobre COPID y a uniros a esta misión . La transformación digital debe ser una fuerza para el bien de toda la sociedad. Juntos, podemos construir un futuro más inclusivo.
- OdiseIA presenta su participación en el Proyecto COPID: Impulsando la Igualdad en el entorno digital
Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . OdiseIA se enorgullece de formar parte del lanzamiento del proyecto Comunidades de Práctica para Impulsar la Igualdad en el Entorno Digital (COPID), cuyo evento de presentación se llevará a cabo el próximo 11 de octubre de 2024 en el Auditorio de Fundación ONCE, en Madrid. Este proyecto busca promover la igualdad de derechos en el entorno digital, un ámbito que requiere atención urgente para garantizar que todas las personas, sin importar sus capacidades, tengan las mismas oportunidades y acceso. El convenio firmado entre Red.es , Fundación ONCE, la Universidad Carlos III de Madrid y OdiseIA busca impulsar la implementación de la Carta de Derechos Digitales en el ámbito de los derechos de igualdad en el entorno digital. Su objetivo es garantizar el acceso igualitario a las tecnologías, la no discriminación y la eliminación de brechas digitales, centrándose en temas como la accesibilidad universal y la formación en competencias digitales. OdiseIA, como parte del convenio, trabaja para asegurar el uso ético de la inteligencia artificial en este contexto. El proyecto COPID se articula en torno a los ejes temáticos establecidos en la Carta de Derechos Digitales relacionados con la igualdad. Estos ejes incluyen el derecho a la igualdad y a la no discriminación en el entorno digital, el derecho de acceso a internet, la protección de niños, niñas y adolescentes en el entorno digital, accesibilidad universal en el entorno digital, y brechas de acceso al entorno digital. En cada uno de estos ejes se están desarrollando comunidades de expertos que trabajarán en propuestas concretas, tanto legislativas como no legislativas, para promover estos derechos. OdiseIA participa activamente en este esfuerzo, aportando su expertise en el uso ético de la inteligencia artificial aplicado a cada una de las distintas áreas. Durante el evento, Fabián García Pastor participará en la presentación oficial del proyecto, así como en la presentación del eje sobre el derecho de acceso a internet. Asimismo, Maite Sanz de Galdeano participará en la presentación de los ejes dedicados a los derechos a la igualdad y no discriminación y a la protección de niños, niñas y adolescentes en el entorno digital, mientras que Patricia Llaque Gálvez lo hará con el área relativa a las brechas de acceso al entorno digital. Este evento es una oportunidad única para debatir sobre cómo construir un entorno digital inclusivo y accesible, asegurando que la tecnología y las herramientas de inteligencia artificial no generen barreras, sino que impulsen la igualdad. El formato del evento será híbrido, permitiendo la participación tanto presencial como a través de streaming. Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . ¡No te pierdas esta oportunidad de formar parte del cambio hacia un entorno digital más justo e inclusivo!
- AI for Good: La idea de la vulnerabilidad humana en tela de juicio
Autora: Dra. Begoña G. Otero, miembro de OdiseIA e investigadora perteneciente al subgrupo «AI for Good», cAIre Research Project. Introducción: La vulnerabilidad humana en tiempos de las tecnologías de IA Vivimos en un mundo en el que los sistemas de IA pueden utilizarse para predecir nuestro próximo movimiento, sugerir productos y servicios que no sabíamos que queríamos o incluso decidir si nos conceden un préstamo o un tratamiento médico. Emocionante, ¿verdad? Sin embargo, he aquí la otra cara de la moneda: ¿y si esta misma tecnología se utiliza para aprovecharse de nuestras debilidades, influye sutilmente en nuestras decisiones, daña nuestra integridad o profundiza las desigualdades sociales? Si estas posibilidades os generan inquietud, no estáis solos. El rápido avance de las tecnologías de IA plantea importantes cuestiones sobre la vulnerabilidad humana. ¿Qué significa ser vulnerable en el contexto de la IA? ¿Cómo podemos garantizar que estas tecnologías nos ayuden en lugar de perjudicarnos? Estos interrogantes no son sólo académicos; nos afectan a todas y a todos en nuestra vida cotidiana. En las siguientes líneas vamos a profundizar en el concepto de vulnerabilidad; a explicar cómo ha evolucionado a lo largo del tiempo, y cómo distintas teorías de diferentes campos del conocimiento pueden ayudarnos a entenderlo mejor en el contexto de la IA. Asimismo, este blogpost proporciona ejemplos concretos que ilustran estas teorías y plantea la pregunta de si la concepción actual de la vulnerabilidad humana es adecuada en el contexto de las tecnologías de la IA. Como investigadora de las aplicaciones de uso positivas de la IA para ayudar a personas vulnerables, es crucial definir qué significa vulnerabilidad en la era de la IA antes de que podamos sacarle todo el partido a su potencial para hacer el bien. La evolución del concepto de vulnerabilidad La idea de vulnerabilidad es tan antigua como la propia humanidad, pero su definición ha evolucionado significativamente con el tiempo. Vamos a hacer un recorrido por su historia para entender cómo se aplica hoy en día, especialmente en el contexto de las tecnologías de IA. Las primeras interpretaciones de la vulnerabilidad Históricamente, la vulnerabilidad se ha considerado a menudo como una condición estática. Por ejemplo, a principios de la década de 1980, el politólogo Robert Goodin definió la vulnerabilidad como la «susceptibilidad al daño de los propios intereses». Goodin sostenía que los más vulnerables a nuestras acciones y negligencias son aquellos a los que debemos mayor responsabilidad. Esta perspectiva vinculaba directamente la vulnerabilidad con la responsabilidad y la rendición de cuentas. Pensemos, por ejemplo, en las personas mayores que dependen de cuidadores. La teoría de Goodin sugeriría que la sociedad tiene una mayor responsabilidad de proteger a estas personas porque son más susceptibles de sufrir daños. Un cambio de perspectiva: La vulnerabilidad universal Con el tiempo, los académicos empezaron a considerar la vulnerabilidad tanto una condición de grupos específicos como un aspecto universal de la condición humana. Martha Fineman , una destacada teórica jurídica, introdujo el concepto de «sujeto vulnerable». Sostenía que todos los seres humanos somos intrínsecamente vulnerables debido a nuestro cuerpo físico y a nuestra dependencia de las relaciones sociales y las instituciones. Esta visión desplaza la atención de la protección de grupos específicos al reconocimiento de la vulnerabilidad como un rasgo humano fundamental. La teoría de Fineman ayuda a explicar por qué las personas pueden sentirse vulnerables en distintas etapas de la vida, tales como la infancia, la enfermedad o el envejecimiento. Subraya la necesidad de estructuras sociales que apoyen a todos, no sólo a determinados grupos. La vulnerabilidad contextual y relacional Teorías más recientes subrayan que la vulnerabilidad no es sólo un rasgo humano universal, sino también muy contextual y relacional. La eticista Florencia Luna , por ejemplo, ha propuesto la idea de «capas (no etiquetas) de vulnerabilidad». Según Luna, la vulnerabilidad varía en función de la situación, el momento y el lugar del individuo. Este enfoque por capas permite una comprensión más matizada de cómo los distintos factores contribuyen a la vulnerabilidad de una persona en distintos momentos. Por ejemplo, una mujer embarazada puede experimentar una mayor vulnerabilidad debido a los riesgos para su salud y a las expectativas sociales. Sin embargo, su vulnerabilidad no es estática; cambia con su salud, sus sistemas de apoyo y su situación socioeconómica. Un examen comparativo de estas teorías de la vulnerabilidad más representativas en distintos campos de la ciencia permite extraer una serie de conclusiones. La vulnerabilidad es un aspecto inherente a la humanidad, específico de los seres vivos y relacional. Los desequilibrios de poder ocupan un lugar central en su conceptualización teórica, y existen dos enfoques para abordarla: la reparación de los daños de forma colectiva o el empoderamiento de los individuos. Por último, la ética y el derecho a menudo adoptan un enfoque de etiquetaje de la vulnerabilidad, proporcionando listas de poblaciones vulnerables. Sin embargo, como ha mencionado Luna , la estratificación por capas abre la puerta a un enfoque mucho más interseccional y enfatiza su potencial acumulativo y transitorio. Las teorías vigentes sobre la vulnerabilidad frente a las tecnologías de IA: algunos ejemplos concretos Para comprender mejor el impacto de las tecnologías de IA en la vulnerabilidad humana y si los enfoques existentes sobre este concepto son suficientes, es vital explorar al menos algunas de las teorías más relevantes sobre la vulnerabilidad y sustentarlas con ejemplos del mundo real. Estas teorías nos ofrecen un marco para comprender las distintas dimensiones y contextos de la vulnerabilidad. El modelo de vulnerabilidad de Goodin El modelo de Robert Goodin subraya la idea de que la vulnerabilidad está estrechamente ligada a la dependencia y la responsabilidad. Según Goodin, aquellos que son más vulnerables a nuestras acciones son aquellos de los que somos más responsables. En el contexto de la IA, pensemos en los sistemas automatizados de toma de decisiones en la atención sanitaria. Los pacientes que confían en la IA para su diagnóstico y tratamiento son vulnerables a los errores y sesgos del sistema. Por tanto, los proveedores de asistencia sanitaria deben asumir una gran responsabilidad a la hora de garantizar la exactitud e imparcialidad de estos sistemas de IA para proteger a los pacientes vulnerables. Pero, ¿es éste el mejor camino? La teoría del sujeto vulnerable de Fineman La teoría de Martha Fineman postula que la vulnerabilidad es una condición humana universal. Sostiene que nuestras dependencias físicas y sociales inherentes nos hacen a todos vulnerables, y que la sociedad debe estructurarse para apoyar a todos y no sólo a grupos específicos. Las plataformas de redes sociales que utilizan algoritmos y sistemas de IA para moderar contenidos pueden afectar a todos los usuarios, especialmente cuando los algoritmos no reconocen los matices de la comunicación humana. Esto puede conducir a una censura injusta o a la difusión de contenidos nocivos, afectando a la vulnerabilidad de todos ante la desinformación y el acoso. Sin embargo, ¿hasta qué punto permiten nuestros ordenamientos jurídicos asignar responsabilidades a estas plataformas? Las capas de vulnerabilidad de Luna El concepto de capas de vulnerabilidad de Florencia Luna sugiere que la vulnerabilidad no es estática, sino que varía en función de las circunstancias del individuo. Este enfoque por capas tiene en cuenta factores como el estatus, el tiempo y la ubicación. Los trabajadores de la economía colaborativa que utilizan plataformas basadas en IA, como las aplicaciones para compartir desplazamientos ( ride-sharing apps), pueden experimentar diferentes niveles de vulnerabilidad. Un conductor puede ser más vulnerable durante los turnos nocturnos debido a problemas de seguridad y a la fluctuación de la demanda. Su entorno laboral, su situación económica y el diseño de la plataforma de IA influyen en su vulnerabilidad. Sin embargo, ¿se tienen realmente en cuenta estas capas a la hora de diseñar este tipo de servicios comerciales? ¿Es la vulnerabilidad siquiera un factor que tengan en cuenta los propietarios de estas plataformas? ¿Debería serlo? Las críticas y mejoras de Kohn Nina Kohn criticó la teoría de Fineman por su potencial para dar lugar a políticas públicas excesivamente paternalistas y estigmatizadoras. Sugirió mejorar dicha teoría para defender mejor las libertades individuales sin dejar de abordar las vulnerabilidades. La autora aboga por un enfoque ponderado que tenga en cuenta tanto la protección como la autonomía. Un ejemplo de su planteamiento sería el caso de los sistemas de vigilancia por IA que se están implantando ampliamente en los espacios públicos con fines de seguridad pública, lo que podría vulnerar los derechos individuales a la intimidad, haciendo que las personas se sientan constantemente vigiladas y pudiendo dar lugar a un uso indebido de los datos. Además, estos sistemas podrían dirigirse de forma desproporcionada a determinadas minorías raciales o étnicas, exacerbando los prejuicios existentes y dando lugar a un trato injusto. La perspectiva de Kohn haría hincapié, entre otras cosas, en la necesidad de (a) implantar obligaciones de transparencia sobre cómo se hace uso de la tecnología, qué datos se recopilan, cómo se almacenan y protegen; (b) establecer mecanismos de supervisión sólidos para garantizar que la vigilancia mediante IA se utiliza de forma ética y legítima; y (c) restringir el ámbito de uso a zonas públicas o situaciones en las que sea realmente necesario por motivos de seguridad pública. Como resultado, la implantación de un sistema de vigilancia por IA en un espacio público podría incluir un rótulo claro que informe a los ciudadanos sobre la vigilancia y el uso de los datos, un sitio web dedicado para el acceso público a información detallada, auditorías independientes periódicas y mecanismos para que las personas puedan dar su opinión o presentar quejas. Este equilibrio entre protección y autonomía es crucial a la hora de diseñar normativas sobre IA que respeten tanto la seguridad como la libertad. Las vulnerabilidades potenciales y ocurrentes de Mackenzie La filósofa Catriona Mackenzie introdujo la distinción entre vulnerabilidades potenciales o disposicionales y ocurrentes. Las vulnerabilidades potenciales se refieren a un estado con riesgo de daño, pero tal riesgo no es de momento concreto y tangible. Implica que existen ciertas condiciones que podrían provocar daños, pero que en la actualidad no causan ningún peligro inmediato. Por otro lado, la vulnerabilidad ocurrente es un estado de vulnerabilidad concreto y tangible en el que el riesgo se ha hecho inminente o se está produciendo un daño real. Este tipo de vulnerabilidad requiere una acción inmediata para prevenir o mitigar el daño. Su distinción es significativa porque ayuda a identificar si las vulnerabilidades requieren una intervención inmediata o medidas preventivas para evitar daños futuros. También permite dar respuestas más específicas y eficaces a los distintos tipos de vulnerabilidades. En este sentido, pensemos en los sistemas de IA utilizados en la vigilancia policial predictiva. Las vulnerabilidades potenciales podrían incluir el riesgo de que comunidades específicas sean objeto de ataques injustos basados en IA predictiva entrenada con datos históricos. Las vulnerabilidades ocurrentes tienen lugar cuando las prácticas policiales existentes dan lugar a un exceso de vigilancia y control de estas comunidades, lo que genera desconfianza y perjuicios. Otro ejemplo de vulnerabilidad potencial podría ser un sistema de IA diseñado para procesos de contratación que utilice un conjunto de datos procedentes de datos de entrenamiento que contengan sesgos sutiles, como preferencias históricas por determinados grupos demográficos en detrimento de otros. El uso de un sistema de este tipo puede dar lugar a una vulnerabilidad disposicional al tomar sus usuarios decisiones sesgadas, con el consiguiente potencial de discriminación. En el caso de las vulnerabilidades ocurrentes, se podría considerar un sistema de IA diseñado para gestionar transacciones financieras, que detecte un patrón inusual que indique un ciberataque en curso. Los protocolos de seguridad del sistema se están viendo activamente comprometidos, lo que permite el acceso no autorizado a datos financieros sensibles. Los usuarios de este sistema de IA son en ese momento vulnerables porque el riesgo se ha materializado y necesitan una acción inmediata para mitigar el daño. Implicaciones prácticas de estas teorías Entender estas teorías nos ayuda a reconocer las formas multidimensionales en que las tecnologías de IA pueden afectar a la vulnerabilidad humana. Por ejemplo, la identificación de vulnerabilidades potenciales puede informar el diseño proactivo de sistemas de IA para mitigar los riesgos antes de que se materialicen. Además, reconocer la naturaleza en capas de la vulnerabilidad garantiza que las aplicaciones de IA tengan en cuenta las diversas circunstancias de los distintos grupos de usuarios. Una propuesta de taxonomía para entender la vulnerabilidad en el contexto de las tecnologías de IA Los ejemplos anteriores demuestran que es esencial desarrollar una taxonomía exhaustiva para abordar la naturaleza compleja y polifacética de la vulnerabilidad en el contexto de la IA. Esta taxonomía debería tener en cuenta diversos factores que contribuyen a la vulnerabilidad humana y ofrecer un enfoque estructurado para identificar y mitigar estas vulnerabilidades. Sobre la base de las teorías debatidas y de las ideas extraídas de la literatura, he aquí una serie de factores que, si se tienen en cuenta, pueden ayudar a descubrir mejor la vulnerabilidad humana en el contexto de las tecnologías de IA. Condiciones demográficas y socioeconómicas Las condiciones demográficas y socioeconómicas desempeñan un papel importante a la hora de determinar la vulnerabilidad en el espacio digital. Ciertos grupos pueden ser más susceptibles de sufrir daños debido a su edad, sexo, nivel educativo, ingresos o etnia. Estos factores pueden crear desventajas que se ven exacerbadas por las tecnologías de IA. Los ciudadanos de más edad pueden tener dificultades con los servicios bancarios en línea basados en IA debido a su falta de alfabetización digital, lo que les hace más vulnerables al fraude o a los errores. Aspectos psicosociales Las características psicosociales, como la salud mental, el estado emocional y las capacidades cognitivas, influyen en la forma en que las personas interactúan con los sistemas de IA y pueden afectar a su susceptibilidad a la manipulación o al daño por parte de las tecnologías de IA. Las personas con problemas de salud mental pueden ser más vulnerables a los algoritmos de IA que se dirigen a ellas con anuncios de productos potencialmente nocivos, como el juego o el alcohol. Competencias y alfabetización relacionadas con la IA Los conocimientos y habilidades de un usuario relacionados con la IA pueden influir significativamente en su vulnerabilidad. Las personas con conocimientos limitados sobre el funcionamiento de la IA o sobre cómo navegar por los sistemas basados en IA pueden correr un mayor riesgo de explotación o daño. Los consumidores que necesitan ayuda para entender cómo funcionan los algoritmos de recomendación pueden ser más propensos a caer en sugerencias de productos engañosas o información sesgada. Factores contextuales, relacionales y situacionales El contexto en el que se utilizan las tecnologías de IA puede crear vulnerabilidades situacionales. Estos factores incluyen el entorno, el tiempo y las circunstancias específicas en las que se emplea un sistema de IA. Los trabajadores de la economía colaborativa que utilizan plataformas basadas en IA pueden enfrentarse a vulnerabilidades relacionadas con la seguridad del empleo y las condiciones de trabajo, que pueden variar significativamente en función de la ubicación y la demanda. Desequilibrios de poder y asimetrías de información Los desequilibrios de poder entre desarrolladores y usuarios de IA, así como las asimetrías de información, contribuyen a la vulnerabilidad. A menudo, los usuarios carecen de los conocimientos o los recursos necesarios para comprender plenamente o cuestionar los sistemas de IA, lo que les coloca en desventaja. Las plataformas de redes sociales que utilizan IA para seleccionar contenidos pueden manipular el comportamiento de los usuarios mediante la maximización algorítmica de la participación sin que los usuarios comprendan plenamente el alcance de esta influencia. Factores temporales El momento y la duración de las interacciones con la IA pueden influir en la vulnerabilidad. Algunas vulnerabilidades pueden ser coyunturales y a corto plazo, mientras que otras pueden ser duraderas y crónicas. La vulnerabilidad financiera temporal debida a la pérdida del empleo puede hacer que las personas sean más susceptibles a los servicios de préstamos predatorios controlados por sistemas de IA. Conclusiones: ¿Necesitamos replantearnos qué es la vulnerabilidad humana en el contexto de la IA? La clasificación anterior es un primer intento de abordar de forma estructurada la cuestión de la vulnerabilidad en el contexto de la IA. Está abierta a correcciones y modificaciones en el transcurso de este proyecto de investigación y está abierta a comentarios externos. Aunque es posible que esta taxonomía no resuelva el problema principal de si necesitamos replantearnos el concepto de vulnerabilidad en el contexto de las tecnologías de IA, puede ayudar a identificar nuevas situaciones y proporcionar orientación tanto a emprendedores innovadores como a responsables políticos en términos de diseño inclusivo y evaluación de riesgos. Aun así, queda una pregunta sin respuesta: A la luz de la rápida evolución de las tecnologías de IA, ¿necesitamos revisar la conceptualización jurídica de la vulnerabilidad humana a nivel internacional? Esta cuestión jurídica es objeto de un proyecto de investigación independiente que pronto se materializará en un trabajo de investigación. En resumen... continuará.
- Publicamos un primer posicionamiento sobre Inteligencia Artificial Generativa
Publicamos un primer posicionamiento de OdiseIA sobre Inteligencia Artificial Generativa en el que, además de reconocer su gran aportación técnica y económica, identificamos los riesgos sociales y éticos asociados y aportamos una serie de recomendaciones para su uso responsable. Acabamos de publicar un documento con un primer posicionamiento de OdiseIA sobre la Inteligencia Artificial Generativa. Dada la enorme visibilidad mediática alcanzada por esta tecnología tras el lanzamiento de ChatGPT a finales del 2022, y dado y el indudable impacto que desde ya y proyectado hacia el futuro se prevé que tenga la inteligencia artificial generativa en los negocios, las administraciones y la sociedad, desde OdiseIA hemos sentido la necesidad, siguiendo nuestra misión, de realizar un análisis con perspectiva social y ética. Y el fruto de dicho análisis es este documento en que, tras una breve introducción a la naturaleza y características de la inteligencia artificial generativa, identificamos los principales riesgos de carácter social, ético e incluso legal, y aportamos, humildemente, unas recomendaciones para su uso consciente y responsable, por los órganos legisladores, las empresas, las administraciones y los ciudadanos de a pie. En la elaboración de este documento han participado una docena de socios de OdiseIA. Hablamos de un primer posicionamiento de OdiseIA porque prevemos una evolución y probablemente nuevas ediciones de este documento, dado el dinamismo de esta tecnología y su adopción. Y, de hecho, en Otoño de este mismo año, prevemos publicar nuevas aportaciones alrededor de esta misma temática. En ese sentido, cualquier feedback será bienvenido. Puedes encontrar y descargar el documento siguiendo este enlace: Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es profesor, director académico y mentor de proyectos en Escuela de Organización industrial y colaborador en otras universidades y escuelas de negocio como OBS, Universidad Europea o UNIR. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y “Robots en la sombra” (Anaya Multimedia, 2021).
- Another Inconvenient Truth: The Societal Emergency of AI Incidents - We Should Do Something About It 1
Sonsoles de la Lastra Olalquiaga, IE University Dr. Richard Benjamins, Observatory for Social and Ethical Impact of AI In today's tech-driven world, artificial intelligence (AI) holds immense promise for shaping our future. From revolutionizing industries to enhancing everyday experiences, AI has the potential to bring about transformative change. However, amidst the excitement, there are significant societal risks as evidenced by several AI incidents, as highlighted in "Another Inconvenient Truth: The Societal Emergency of AI Incidents - We Should Do Something About It" by Sonsoles de la Lastra Olalquiaga and Dr. Richard Benjamins. Through a rigorous analysis of over 750 documented incidents worldwide sourced from the OECD’s AI incidents monitor and the AIAAIC Repository, we open our eyes to the reality that, while AI offers great promise, it also presents risks, particularly for vulnerable communities. Instances of "non-physical harm" account for a striking 96% of these incidents, ranging from algorithmic bias to data privacy breaches and misinformation dissemination. These incidents underscore the need for cautious and responsible deployment of AI technologies. Geographically, AI incidents are concentrated in regions like the United States, the United Kingdom, and Germany, highlighting the global nature of the issue. This geographical insight emphasizes the importance of collaborative efforts and international cooperation in addressing these challenges effectively. By sharing best practices, exchanging knowledge, and establishing common frameworks, stakeholders can work together to mitigate the risks associated with AI deployment and ensure its responsible use across borders. The report also delves into the role of major tech corporations in managing AI's ethical challenges. From ensuring algorithmic transparency to addressing biases in AI systems, these corporations play a crucial role in shaping the future of AI. However, the report underscores the importance of corporate accountability and responsible practices in navigating the ethical complexities of AI development and deployment. Despite these challenges, there's an opportunity for positive change. Through transparent and ethical AI deployment, we can leverage its potential to address pressing societal issues, from healthcare and education to climate change and social justice. "Another Inconvenient Truth" serves as a call to action, urging policymakers, industry leaders, and researchers to navigate the complexities of AI responsibly. It's essential to acknowledge the possible negative effects of artificial intelligence on society in order to collaborate toward a future in which AI maximizes its outstanding potential. The report can be downloaded in the following link: Title inspired by Al Gore's groundbreaking book, "An Inconvenient Truth: The Planetary Emergency of Global Warming and What We Can Do About It” (2006) https://oecd.ai/en/incidents https://www.aiaaic.org/aiaaic-repository
- El Comité Español de Ética de la Investigación ha publicado undocumento de “Recomendaciones éticas para la investigación enInteligencia Artificial”
En el documento, el Comité Español de Ética de la Investigación se enfoca en definir cuál es la responsabilidad de los investigadores y de las instituciones de investigación en cuanto a la investigación en IA (no en cuanto a la investigación con herramientas y desarrollos de IA). El Comité Español de Ética de la Investigación (CEEI) es un órgano colegiado de ámbito estatal, independiente, y de carácter consultivo, adscrito al Consejo de Política Científica, Tecnológica y de Innovación, del Ministerio de Ciencia, Innovación y Universidades, que ejerce competencias en materia de integridad científica, investigación responsable y ética en la investigación. Como parte de su trabajo, ha publicado un documento de “Recomendaciones éticas para la investigación en Inteligencia Artificial”. El documento apunta a la necesidad de que los trabajos de investigación en Inteligencia Artificial sigan un código ético que incluya una serie de aspectos, que dividen en 3 partes: “Responsabilidad en el desarrollo y el uso de sistemas autónomos”, “Consecuencias sociales y responsabilidad social de la investigación” y “Datos”. La parte primera, de “Responsabilidad en el desarrollo y el uso de sistemas autónomos”, se divide en varios aspectos a tener en cuenta como son: “Salvaguardar los derechos humanos y fundamentales”, “Salvaguardar el medioambiente”, “Responsabilidad”, “Inspeccionabilidad y trazabilidad” y Divulgación de la investigación. Los aspectos importantes que destaca el CEEI en cuanto a las “Consecuencias sociales y responsabilidad social de la investigación” son: “Reconocer la incertidumbre”, “Asegurar una participación amplia” y “Asegurar la protección de datos y la consideración a los individuos”. Para finalizar, el documento incluye dos aspectos relativos a los “Datos”: “Aseguramiento de la calidad” y “Acceso justo a los datos”. El informe completo puede consultarse en la página del CEEI ( https://www.ciencia.gob.es/Ministerio/Mision-y-organizacion/Organismos-consultivos/CEEI.html ), dónde también pueden encontrarse otros documentos de dicho Comité. Coral Calero Responsable del Área de “Algoritmos Verdes” de OdiseIA Miembro del Comité Español de Ética de la Investigación
- Mal uso versus Uso perdido: la necesidad urgente de administradores de datos en jefe en la era de la IA
Nuevo blog! Mal uso versus Uso perdido — la urgente necesidad de Jefes de Administración de Datos en la era de la IA 👉 https://medium.com/data-policy/misuse-versus-missed-use-the-urgent-need-for-chief-data-stewards-in-the-age-of-ai-41359cec585c Con una atención creciente en el rol de los Jefes de Inteligencia Artificial (CAIO), Stefaan Verhulst, PhD (The Governance Lab) y Richard Benjamins (OdiseIA) escriben para el blog de Datos y Política sobre la relevancia continua de otro rol, los Jefes de Administración de Datos (CDS), y la importancia de los datos y el #gobiernodedatos como fundamentales para el gobierno de la #IA. Descarga la versión pdf aquí:
- OdiseIA y Decidata desarrollan una metodología para cartografiar la IA Responsable
El informe destaca la importancia de desarrollar una Inteligencia Artificial (IA) que no solo sea innovadora, sino que también esté alineada con valores éticos y sociales. Para lograrlo, propone una metodología que permite cartografiar los proyectos dentro del ecosistema español de IA Responsable. Elaborado por OdiseIA y Decidata, este informe presenta una metodología pionera para identificar a los agentes que configuran el ecosistema de IA Responsable en España (desde startups y corporaciones multinacionales hasta entidades gubernamentales y académicas) y ofrece una herramienta para el análisis y la visualización de activos clave de la IA en el país. Este documento no debe entenderse únicamente como una guía que facilita el entendimiento del panorama actual de la IA Responsable en España, sino que también pretende impulsar un marco para promover las colaboraciones, investigaciones y desarrollos en este campo, asegurando que esta tecnología avance de una manera que se encuentre al servicio de las personas. El informe también revela una serie de desafíos que persisten en el campo de la IA Responsable y, a tal efecto, insta a adoptar y mejorar ciertas prácticas responsables para mejorar la aceptación y efectividad de esta tecnología en la sociedad. Puedes encontrar y descargar el informe siguiendo este enlace: Pedro Ruíz Aldasoro Decidata Ramon Baradat Marí Abogado experto en nuevas tecnologías, docente en inteligencia artificial y miembro de OdiseIA.
- Posicionamiento de Odiseia sobre el Reglamento Europeo deInteligencia Artificial
La inteligencia artificial (IA) supone una nueva etapa y oportunidad para la humanidad como una herramienta que, regida por principios éticos firmes, puede mejorar la vida de todos. En este momento en el que la IA avanza a pasos agigantados, la aprobación por el Parlamento de la Unión Europea del Reglamento europeo de inteligencia artificial el 13 marzo de 2024 supone un hito histórico. La Unión Europea se sitúa como líder mundial en la regulación del uso de la IA, en la fomentación de una innovación responsable y ética y reforzando la defensa de los derechos humanos, la democracia y el Estado de Derecho. Odiseia , como asociación de referencia en España dedicada a la ética en IA, celebra esta regulación como oportunidad sin precedentes para modelar el futuro de la IA y aprovecha este momento histórico para afirmar públicamente que el Reglamento Europeo de Inteligencia Artificial: Supone una transición de los principios de la ética del uso de la IA a normativas concretas y obligatorias . Ha sido un logro en los últimos años poder asentar y generalizar unos principios éticos de la IA. Los mismos han sido una base sólida para orientar la evolución y expansión de la IA y precisamente para orientar las regulaciones que deben implantarse. No obstante, la evolución tecnológica exige ir más allá de declaraciones. El Reglamento supone una la aplicación efectiva de los principios éticos mediante obligaciones claras y precisas, garantizando así un desarrollo y uso responsable de la IA. Expresa el liderazgo mundial de la Unión Europea en la defensa de valores y la protección de los derechos fundamentales, la democracia y el Estado de Derecho . La Unión Europea adopta un papel pionero al regular varios usos de la IA. Este Reglamento no solo protege a los ciudadanos europeos sino que también podría servir de modelo para otras regiones del mundo. Da seguridad jurídica y confianza en la tecnología . Aunque Europa no lidera la carrera tecnológica en IA, con el Reglamento establece un referente que da seguridad jurídica que facilita también las inversiones estables y brinda confianza pública hacia la IA. El Reglamento es primera regulación general en el mundo, con vocación de permanencia ante el cambio . Este Reglamento no solo es el primero en su tipo a nivel mundial. Pese a la dificultad de regular el uso de una tecnología tan innovadora, como lo ha demostrado la eclosión de la IA generativa, cabe subrayar que está diseñado para perdurar, actualizarse, evaluar su efectividad y adaptarse a las futuras innovaciones tecnológicas. El nuevo Reglamento como punto de partida determina unas líneas rojas de la IA prohibida, que se considera inaceptable en la UE. Así sucede con los sistemas dañinos, manipulativos o que explotan las vulnerabilidades de diversos colectivos. Las prohibiciones evitan la vigilancia masiva y la política predictiva . Igualmente se prohíben sistemas de “crédito social”, existentes en otras latitudes del mundo . Cuanto menos se limita o evita el uso de herramientas policiales discriminatorias y peligrosas especialmente de identificación biométrica y reconocimiento facial en espacios públicos. El Reglamento sigue un muy acertado enfoque basado en el riesgo: clasifica los sistemas de IA según su nivel de riesgo y establece obligaciones preventivas necesarias, evitando obstaculizar la innovación en los sistemas que no son de alto riesgo. determina con bastante precisión los sistemas que son de alto riesgo para la salud, seguridad, vida e integridad de las personas y sus derechos fundamentales. Respecto de estos sistemas de alto riesgo establece un sistema de cumplimiento de obligaciones preventivas y en el diseño. asienta un marco relativamente definido para la IA de propósito general y la generativa permite el desarrollo de todo un ecosistema de sellos y certificaciones de asunción voluntaria para la IA que no se considere de alto riesgo. El nuevo Reglamento se enfoca en garantizar la confianza y seguridad de la tecnología. Busca equilibrar el progreso tecnológico con las garantías y los intereses públicos a través de un mecanismo de supervisión efectivo , el cual incluye evaluaciones de riesgos y auditorías regulares para asegurar el cumplimiento de la normativa. Se enfatizan técnicas de análisis de riesgos y estudios de impacto para la identificación y mitigación de riesgos . También la calidad y la gobernanza de datos juega un papel crucial. Estas obligaciones con las de robustez y precisión de los sistemas de IA pasan a ser esenciales para la evitación de los sesgos y la discriminación algorítmica. La supervisión y control humanos y la ciberseguridad de los sistemas de IA pasan a ser elementos centrales del sistema de garantías en el diseño. En cualquier caso, cabe recordar que todos los sistemas de IA también deben cumplir las normas ya existentes. Especialmente el RGPD ya impone no pocas obligaciones respecto de la calidad de los datos, la explicabilidad & la transparencia, la seguridad y la privacidad. Además, el Reglamento también cubre la IA Generativa , llamada como “General Purpose AI”. En caso de usar estos sistemas para alto riesgo, existe una obligación de transparencia por parte de los proveedores para que el implementador (“deployer”) pueda cumplir con el Reglamento, dado que varios de los requisitos del Reglamento requieren información que solo tiene el proveedor. Para GPAI sistémicos (los muy grandes de las grandes tecnológicas), existen también varias obligaciones como monitorear los impactos, informar de incidencias y el “red teaming”. Sin perjuicio de una valoración general positiva, el Reglamento tiene insuficiencias y elementos que son susceptibles de críticas. Asimismo, hay que evitar que el Reglamento de IA suponga una barrera innecesaria a la innovación, al tiempo de sus desafíos en la implementación y eficacia normativa . La experiencia del RGPD nos lleva a subrayar la importancia de que la implantación del nuevo Reglamento de IA persiga la efectividad de sus objetivos. El Reglamento no ha de convertirse en un conjunto de barreras que limiten innecesariamente el uso de la IA y supongan un freno para la innovación y el desarrollo de una IA que sea positiva para la sociedad así como una barrera a la prosperidad en la UE. También el Reglamento o una mala interpretación o aplicación del mismo puede no ser una garantía efectiva de los derechos e intereses que intenta proteger. Es por ello que con el Reglamento ya aprobado, la ética de la IA debe guiar el desarrollo y criterios de interpretación y aplicación del Reglamento para una IA responsable hacia el bien común . Es esencial desarrollar instituciones, normativas, criterios, directrices, normas armonizadas y normas técnicas, guías de aplicación y de buenas prácticas. Resta una inmensa labor por delante que debe seguir estando inspirada por ética de la IA. En ello ha participado activamente Odiseia y va a seguir haciéndolo en primera línea de España y de la Unión Europea para asegurar que la IA sirva al bien común. Odiseia quiere ahora resaltar el papel insustituible de la ética de la IA y reivindicar también el papel de la sociedad civil en la interpretación y aplicación del nuevo Reglamento europeo de inteligencia artificial. La ética de la IA ha inspirado este Reglamento y los principios éticos también deben favorecer su interpretación y aplicación efectiva. Asimismo, es importante recordar que la mayoría de sistemas de IA no son de alto riesgo. Respecto de ellos el Reglamento actúa como una fuente de inspiración para el cumplimiento voluntario de prácticas éticas en el desarrollo y aplicación de toda tecnología de IA. Odiseia va a continuar la intensa y amplia labor por delante relativa al fomento de la adopción voluntaria de estos principios éticos y regulatorios en estos ámbitos que el Reglamento no alcanza a obligar. Alentamos a todas las partes interesadas, independientemente del nivel de riesgo asociado con sus sistemas de IA, a considerar los principios y directrices establecidos en el Reglamento como un modelo a seguir. El uso responsable de la IA, promovido por el Reglamento, también provee varios beneficios para el negocio y la innovación , como por ejemplo: Cada vez más los inversores miran cómo las empresas gobiernan los sistemas de IA antes de tomar decisiones de inversión. Los clientes cada vez más exigen responsabilidad a las empresas en vez de solo beneficios. La detección temprana de riesgos del uso de la IA permite mitigar o evitar consecuencias negativas mucho más económicas, comparado con una mitigación una vez en el mercado. Atraer talento es un reto importante para las empresas. Promover un uso responsable de la IA atrae y retiene al talento humano. Marzo de 2024 Documento elaborado por Idoia Salazar, Richard Benjamins y Lorenzo Cotino
- La importancia de la diversidad cultural en la ética de la IA
Slava on Unsplash La inteligencia artificial (IA) está progresando. Y si no tenemos cuidado, bien puede convertirse en un caballo de Troya por una sola premisa: la imposición de un enfoque universal para la toma de decisiones éticas. La búsqueda de este Santo Grial de un Código deontológico universal en IA ha dejado a su paso una cantidad notable, si no preocupante, de proyectos destinados a establecer un corpus de estándares éticos para enmarcar su desarrollo. Esta intención es loable. Pero es vital que cuestionemos la base sobre la que se asienta este corpus. La gran cantidad de iniciativas que crecen rápidamente y requieren esta herramienta hace que la necesidad de garantizar la base sea aún más urgente. Debemos hacer dos preguntas fundamentales. ¿Es posible crear una sola herramienta para todo y existe un deseo generalizado de crear una herramienta de este tipo? Un debate dominado por Occidente Yannick Meneceur evidencia el llamado a un código ético al enumerar 126[1] iniciativas en su libro L’intelligence artificelle en procès. En su Inventario global de directrices éticas de IA, el proyecto Algorithm Watch identifica 166[2]. Y un estudio realizado por un equipo de ETH Zúrich encontró 1180 códigos “pertenecientes a principios éticos”[3]. La necesidad de una herramienta universal para la ética de la IA debería hacernos cuestionar su pertinencia y las razones que motivan el crecimiento de tales iniciativas. Lo más preocupante de estos informes es que, en esencia, son publicados esencialmente por un número reducido de personas en un número reducido de países. En el meta-análisis elaborado por ETH Zúrich, que abarca 84 documentos, los autores destacan que “En términos de distribución geográfica, los datos muestran una representación significativa de más países económicamente desarrollados (MEDC), con EE. UU. (n = 20; 23,8%) y el Reino Unido (n = 14; 16,7%) en conjunto representan más de un tercio de todos los principios éticos de la IA “, mientras que “los países Africanos y Sudamericanos no están representados independientemente de las organizaciones internacionales o supranacionales “[4]. En otras palabras, los países occidentales están liderando en lo que respecta a la toma de decisiones éticas. Si le sumamos el peso de la Unión Europea (UE), que está afirmando claramente su voluntad de establecerse como actor normativo, Occidente representa el 63% (53 documentos) de los códigos relacionados con la ética de la IA. Según los autores de “El panorama global de las pautas éticas de la IA”, esta sobrerrepresentación indica una falta de igualdad global en el tratamiento de la IA y muestra que los países económicamente más avanzados están dando forma al debate al “descuidar el conocimiento local, el pluralismo cultural y equidad global”.[5] Algo que limita aún más el alcance de esta asignatura es el hecho de que está monopolizada por un pequeño círculo de “los que saben”, concentrados en el área privada, pública y académica. Incluso dentro de los países occidentales, está claro que el debate está prácticamente cerrado al público. El resultado de este dominio occidental en el campo de la ética en la IA es que el enfoque es exclusivamente a través de la filosofía continental y sus tres teorías de la ética: ética de la virtud, deontología y consecuencialismo. De hecho, en una inspección más detallada, vemos que hay un predominio real del enfoque deontológico. Esto es controvertido porque simplifica al extremo el pensamiento kantiano. Lo reduce a un programa de ética de bajo costo con un conjunto de reglas de arriba hacia abajo. Como vemos, el pensamiento occidental ocupa el espacio de la ética abierto por la IA y a su vez niega la diversidad cultural, la variedad de perspectivas normativas y, en última instancia, la verdadera complejidad del análisis ético. De hecho, la proliferación de códigos, cartas éticas y regulaciones aplicadas a la inteligencia artificial ilustra el estancamiento en el que nos encontramos cuando se trata de intentar alcanzar un consenso sobre estándares universales. Abrirse a la pluralidad ética Necesitamos abrir la discusión sobre las reglas éticas de la IA a diferentes culturas y, por lo tanto, a diferentes perspectivas filosóficas. Sin esto, la IA podría convertirse muy rápidamente en un instrumento de dominación intelectual y del imperialismo moderno. Esto, a su vez, obstaculizaría cualquier posibilidad que tengamos de establecer un conjunto de normas universalmente aceptadas. Más allá de la cuestión de la representación geográfica, la ética de la IA debe pensarse a través de varias filosofías y principios. Y quienes toman decisiones deben abstenerse de basarse en juicios previos. El objetivo de tener un estándar universal ético en IA es que desempeñe su papel en la separación de lo aceptable de lo inaceptable sin un sesgo predeterminado del Bien o del Mal. Y esto solo puede suceder realmente si se tienen en cuenta las diversas identidades culturales y sus filosofías. La negación de la diversidad cultural en esta área se ejemplifica en China, cuyos valores pueden pasarse por alto en Occidente. El punto no es tomar partido y cuestionarse si se debe adherir o no a las posiciones chinas. Es comprenderlos y analizarlos. Como el segundo más poderoso del mundo en términos de IA y con sus 1.400 millones de habitantes, China tendrá un asiento en la mesa cuando se trate de debates sobre IA. Por lo tanto, es importante conocer la larga historia filosófica que tiene China para comprender las perspectivas de las personas y, por lo tanto, poder interactuar con ellas de manera constructiva. Como escribió Anna Cheng en La pensée en Chine aujourd’hui en 2007, “lo primero que siente la gente cuando escucha el adjetivo “chino” y la palabra “filosofía” es incómodo. Puede ser un sentimiento muy sutil, pero ciertamente está ahí”[6]. Este sigue siendo el caso, no solo en el contexto de la IA, sino también en términos de geopolítica. Anna Cheng continúa diciendo que “muchos de nuestros contemporáneos mantienen la impresión de que los chinos no son parte de la conversación debido a su sumisión a un régimen autocrático”[7]. Estas ideas preconcebidas son las que se interponen en el camino para que China desempeñe su papel en las discusiones sobre IA. El controvertido Reino Medio no está solo en ser objeto de este ostracismo. Hay otros países y culturas que son completamente invisibles en este debate, el cual debería ser abierto universalmente. Latinoamérica también se queda al margen a pesar de verse afectada por las decisiones que se toman. Julio Pertuzé, profesor asistente de la Pontificia Universidad Católica de Chile, escribe que “las discusiones sobre ética de la IA están dominadas por otras voces, especialmente las europeas”[8]. Partiendo de la observación de que “si bien el impacto de la IA es global, su debate ha estado dominado por un conjunto muy restringido de actores’’[9], el Centro de Estudios en Tecnología y Sociedad de la Universidad de San Andrés en Argentina lanzó el GuIA.ai en 2019. Esta iniciativa fue creada para fortalecer “un espacio donde los investigadores regionales puedan discutir la ética, principios, normas y políticas de los sistemas de Inteligencia Artificial y los problemas particulares de América Latina y el Caribe”[10]. Incluso cuando “el tema de la ética de la IA se encuentra en una etapa temprana en la región y aún no hay suficiente información disponible para evaluarlo de manera integral”[11], no faltan países de América Latina y el Caribe que deseen participar. India tampoco se debe pasar por alto. Su presencia en la tecnología, a pesar de ser considerada superficialmente y marcada por el pasado colonial del país, está emergiendo. Y, al mismo tiempo, está poniendo en práctica su estrategia de IA[12]. Mirando más profundamente, las filosofías y sabidurías africanas, como Ubuntu, necesitan su lugar en la conversación. Su etnofilosofía, con ejes temáticos propios marcados por la experiencia[13] y su nacionalismo cultural[14], deben integrarse en nuestros pensamientos sobre la ética en la IA. El continente africano es rico en historia intelectual, experiencias, relaciones con los humanos y la naturaleza, así como en diversidad cultural que es esencial para los debates sobre la ética de la IA. Al igual que en China, “es como si el adjetivo ‘africano’ cubriera un particularismo excluyente”[15]. La filosofía africana, como otras, puede abrir a las personas a nuevas perspectivas y ayudarlas a cuestionar sus convicciones. Como afirma acertadamente Alassane Ndaw, “ser filósofo en África consiste en comprender que no puede haber un monopolio de la filosofía”[16]. Esto es cierto para la filosofía en general, sin importar de dónde venga. En términos del mundo musulmán y el lugar del Islam en el pensamiento ético, nuevamente los prejuicios prohíben su aceptación. Y al hacerlo, se evita que contribuya esta religión centenaria que cubre una increíble diversidad cultural e intelectual. La reducción del Islam a su dimensión geopolítica y componentes islamistas marginales fomenta un rechazo global. Y así esta cultura extraordinaria que enriquecería el debate sobre la ética de la IA no puede participar. Algunos ya han entendido la importancia de liberarse de sus propias convicciones. En Canadá, el reconocimiento de la cultura indígena está surgiendo en el campo de la IA[17], y en Nueva Zelanda la cultura Maorí, están siendo consideradas en las recomendaciones relacionadas con la ética de la IA[18]. Dos ejemplos que conviene seguir. En conclusión La diversidad cultural, sus particularismos y las diferentes perspectivas esbozadas a grandes rasgos son elementos que debemos considerar en la construcción de la ética en IA. Sin prejuicio. Sin juicio de valor. Tenemos que aprender a escuchar para despolarizar y despolitizar el debate. Y al hacerlo, podremos abrirlo a más perspectivas. Actualmente estamos en un callejón sin salida porque no hemos abordado este tema. Y porque, a pesar de tener buenas intenciones, imponemos una visión occidental al resto del mundo. Al imponer ese miedo a otras personas, como es la naturaleza de los seres humanos, asumimos que nuestras ansiedades son universales. Efectivamente, proveemos soluciones a problemas que afectan a la minoría de la población, como si afectaran a todos y todas por igual y descuidando considerar las mismas especificidades de los problemas a los que se enfrentan los demás. Este es el quid de la cuestión: lo universal. Este concepto se ha convertido en una ideología. Pretende abolir las diferencias culturales y rechaza la diversidad lo cual, hoy en día, limita con la tiranía. La indiferencia hacia los demás, la indiferencia que a menudo raya en la hostilidad es el compañero natural de las formas de lenguaje que reduce y a menudo se burla, que Edward Saïd ha denunciado. De hecho, negar la diferencia de los demás es una forma de compensar nuestras propias fragilidades y dudas. Estamos pidiendo a gritos la universalidad de los valores y al mismo tiempo que elogiemos la diversidad cultural. Protestamos contra los prejuicios y la discriminación, pero nos alejamos de ideas que no podemos o no queremos entender. Al tiempo que condenamos los imperialismos chinos o estadounidenses, nosotros mismos estamos imponiendo nuestro propio imperio ético al resto del mundo. En otras palabras, hacemos a los demás lo que no queremos que nos hagan a nosotros mismos. A la luz de esto, el Observatoire Éthique & Intelligence Artificielle del Institut Sapiens, ha decidido dedicar el próximo año a una profunda reflexión sobre el multiculturalismo y la regulación ética de la IA. Esto se hará junto con varios socios como el Illinois Institute of Technology Centre for the Study of Ethics in Professions; el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA); la Artificial Intelligence Society Bahrain; el Institut Français des Études Académique; INDIAai; la Indian Society of Artificial Intelligence and Law; la Université Mohammed Premier à Oujda y muchos otros de América Latina, Asia, África y Oriente Medio. El Institut Sapiens trabajará en la creación de un informe que cubra la importancia del pluralismo cultural en la evaluación de la ética en la inteligencia artificial. Al hacer este informe, así como publicaciones y eventos, el grupo se está fijando el objetivo de ampliar el campo de posibilidades de la ética en la IA. Sin invalidar ninguna perspectiva, ampliará la red de contribuciones de las culturas que conforman nuestra humanidad. Artículo de Emmanuel R. Goffi, traducido del inglés por Arlette Román Emmanuel R. Goffi es un filósofo de IA y director del Observatoire Éthique & Intelligence Artificielle del Institut Sapiens. Anteriormente, sirvió 27 años en la Fuerza Aérea Francesa. Posee un doctorado en Ciencias Políticas de Science Po-Paris y es profesor de ética de IA en Aivancity, School for Technology, Business and Society, París-Cachan. También es investigador asociado en el Centre for Defence and Security Studies en la Universidad de Manitoba, Winnipeg en Canadá. Emmanuel ha enseñado e investigado en universidades de Francia y Canadá y habla regularmente en conferencias, así como en la prensa. Publicó The French Armies Facing Morality: A Reflection at the Heart of Modern Conflicts (París: L’Harmattan, 2011) y coordinó el libro de referencia Aerial drones: past, presente y future- A Global Approach (París: La Documentation francaise, coll. Stratégie Aérospatiale, 2013), así como muchos artículos y capítulos. Referencias [1] Yannick Meneceur, L’intelligence artificielle en procès: plaidoyer pour une réglementation internationale et européene, Paris Brulant, 2020, p. 201 [2] AI Ethics Guidelines Global Inventory, AlgorithmWatch, available at https://inventory.algorithmwatch.org/databas [3] Anna Jobin, Marcello Ienco, Effy Vayena, ‘The Global landscape of AI ethics guidelines’, Nature Machine Intelligence, Vol. 1, 20019, p. 391 [4] Idem [5] Ibid., p. 396. [6] Anna Cheng, ‘Les tribulations de la « philosophie chinoise » en Chine’, La pensée en Chine aujourd’hui, Paris, Gallimard, 2007, p. 156–160. [7] Anna Cheng, Introduction, Op, cit., p. 11–12 [8] Julio Pertuzé, cited in The global AI agenda: Latin America, MIT Technology Review Insights, 2020, p. 6 [9] Norberto Andrade, Promoting AI ethics research in Latin America and the Caribbean, Facebook Research blog, July 2 2020 [10] CETyS| GuIA.ia, Artificial Intelligence in Latin America and the Caribbean: Ethics, Governance and Policies, GuAI.ia [11] Constanza Gómez Mont, Claudia May Del Pozo, Cristina Martínez Pinto, Ana Victoria Martín de Campo Alcocer, Artificial Intelligence for Social Good in Latin America and the Caribbean: The Regional Landscape and 12 Country Snapshots, Inter-American Development Bank, fAIr LAC intuitive report, July 2020, p.34. [12] See in particular Avik Sarkar, Ashish Nayan, Kartikeya Asthana, National Strategy for Artificial Intelligence #AIFORALL, Discussion Paper, NITI Aayog, June 2018; Abhivardhan, Dr Ritu Agarwal, AI Ethics in a Multicultural India: Ethnocentric or Perplexed? A Background Analysis, Discussion Paper, Indian Society of Artificial Intelligence and Law, 2020 [13] Jean-Godefroy Bidima, Philosophies, démocraties et pratiques: à la recherche d’un « universal latéral», Critique, Tome LXVII, N° 771–772 ‘Philosopher en Afrique’, August- September 2011, p. 672–686 [14] Chike Jeffers, Kwasi Wiredu et la question du nationalisme culturel, Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 639–649. [15] Séverine Kodjo-Grandvaux, Vous avez dit « philosophie africaine », Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 613 [16] Alassane Ndaw, « Philosopher en Afrique, c’est comprendre que nul n’a le monopole de la philosophie », carried out by Rammatoulaye Diagne-Mbengue, Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 625. [17] Karina Kesserwan, How Indigenous Knowledge Shapes our View of AI? Policy Options, February 16, 2018 [18] See Karaitiana Taiuru, Treaty of Waitangi/Te Tiriti and Māori Ethics Guidelines for: AI, Algorithms, Data and IOT, May 04, 2020 or The Algorithm charter for Aotearoa New Zealand, New Zealand Government, July 2020.
- Desafíos de la ciberseguridad en la IA. Análisis del informe de ENISA
Pablo Ballarín Usieto analiza los desafíos de la ciberseguridad en la inteligencia artificial, basándose en el informe publicado recientemente por la Agencia de la Unión Europea para la Ciberseguridad (ENISA). 1. INTRODUCCIÓN ENISA, la Agencia de la Unión Europea para la Ciberseguridad, publicó el pasado mes de diciembre 2020 un informe acerca de los desafíos de ciberseguridad de las soluciones de Inteligencia Artificial. Dicho informe se enmarca en una serie de iniciativas europeas relacionadas con la IA, entre las cuales destacamos el Libro Blanco de la UE sobre IA, el Plan coordinado sobre IA, la política común y las recomendaciones para crear una IA de confianza así como las Guías Éticas para una IA de confianza, la taxonomía para la IA en el ámbito de la defensa desarrollada por la Agencia de Defensa Europea (EDA) o el ya conocido Reglamento General de Protección de Datos de la UE pone la seguridad como uno de sus principios básicos (Art. 5 y Art. 32). Este informe es relevante para OdiseIA porque la ciberseguridad es uno de los pilares fundamentales de la fiabilidad que requerimos a la IA. Sólo cuando tenemos la garantía de que una tecnología es segura, se ganará nuestra confianza. La IA no es solo novedosa, sino que también resulta poco transparente al gran público, por lo que la confianza en su seguridad será clave para que su uso y adopción se generalice. Como sabemos, la IA tiene una serie de características que la diferencian del resto de soluciones tecnológicas, y es fundamental saber cuáles son las amenazas que pueden sufrir y el impacto que pueden llegar a tener. Cuando tenemos claras las nuevas vulnerabilidades y las amenazas, podemos poner en marcha una estrategia de protección adecuada. Esto es especialmente importante en un momento en el que el crimen organizado en Internet es cada vez más relevante, los ciberataques no paran de crecer de forma exponencial y aprovechan cualquier nueva superficie que ofrecen las tecnologías (IoT, Big Data, IA, Cloud, …). En el presente artículo presentaremos los aspectos más relevantes del Informe de ENISA, así como una serie de conclusiones que hacemos desde OdiseIA. 2. ANÁLISIS DEL INFORME Los objetivos del informe abarcan los siguientes puntos: Identificación de los activos que componen las soluciones basadas en IA y que constituyen una nueva superficie de ataque. Identificación de las amenazas en base a una nueva taxonomía, así como una descripción de los escenarios de ataque en los diferentes estadios del ciclo de vida de la IA. Contar con una taxonomía de amenazas de ciberseguridad específica a las soluciones de IA debe permitir a las empresas evaluar riesgos de ciberseguridad de una forma uniforme y repetible para este tipo de aplicaciones, así como identificar identificar cuáles son los controles de seguridad más adecuados. Para poder gestionar la complejidad de estas soluciones, el estudio arranca con una descripción genérica del ciclo de vida de las soluciones basadas en IA. Ello facilita la identificación de los activos que están involucrados (y por lo tanto la superficie de ataque que representan), así como las posteriores amenazas que pueden sufrir. El ciclo de vida de la IA es el conjunto de fases interdependientes que transforman datos de entrada (por ejemplo, imágenes) en una salida (por ejemplo, la identificación de personas) a través de un modelo de predicción que tiene un valor comercial y que está basado en algoritmos (por ejemplo, algoritmos de Machine Learning). Dichas fases abarcan el diseño y desarrollo, la instalación, la operación, mantenimiento, y la retirada. En dicho ciclo, los datos son parte de los activos de más valor, y están en constante transformación a lo largo del ciclo de vida. Al fin y al cabo, datos brutos provenientes de múltiples fuentes son ingeridos y transformados en datos estructurados, que son a su vez procesados para diferentes usos: datos de entrenamiento y datos de prueba usados en modelos de entrenamiento, y datos de evaluación usados en modelos de tuning. 2.1. Activos que intervienen en las soluciones de IA En ciberseguridad, se define un activo como un elemento que puede tener un valor para un individuo o una organización. Partiendo del modelo de referencia del ciclo de vida de la IA, ENISA establece una taxonomía de activos que abarcan activos genéricos que se encuentran en otras soluciones TIC (datos, software, hardware, redes, …), y activos que son específicos a las soluciones de IA (modelos, procesos, artefactos). Los Anexos A y C del informe complementan la descripción e identifican el estado del ciclo de vida de IA al cual pertenece cada uno de los activos. 2.2. Amenazas a las soluciones de IA Las soluciones de IA pueden producir resultados inesperados y pueden ser manipulados para generar resultados no deseados. La taxonomía de amenazas establecida por ENISA parte del trabajo realizado por el Grupo de Expertos de la UE para la IA (EC AI HLEG) que identificó un conjunto de atributos que deben ser evaluados para medir la confianza de las aplicaciones de IA. Estos atributos son la autenticidad, autorización, no repudio, así como otras que son más específicas al ámbito de la IA, como son la solidez, fiabilidad, safety, transparencia, explicabilidad, responsabilidad y protección de datos. Al considerar estos atributos como propiedades de la seguridad, ENISA establece que los impactos potenciales de las amenazas de ciberseguridad a soluciones de IA también pueden ser los siguientes: Autenticidad: los datos de entrenamiento o de test de un sistema de reconocimiento facial han sido modificados y para alterar los resultados. Autorización: una persona ajena al equipo de desarrollo accede de forma no autorizada a una solución de IA y cambia el código, dañando con ello la legitimidad de la aplicación. No Repudio: un emisor no puede demostrar el envío de un correo electrónico con información crítica. Solidez de una aplicación o solución de IA: un asistente virtual usado por un banco en la comunicación con sus clientes deja de funcionar en momentos de máximo tráfico. Fiabilidad de una aplicación o solución de IA: los datos de entrenamiento de un sistema de predicción de crímenes tienen un sesgo racial marcado. Safety[1]: una persona malintencionada logra modificar las funcionalidades esperadas de un coche automático, resultando en un daño al conductor y a las personas del entorno. Transparencia: una empresa se niega a explicar los criterios que ha seguido para enseñar un chatbot a responder frente a determinadas situaciones, aludiendo a que ello daría ventaja a la competencia. Explicabilidad: una empresa es incapaz de explicar los criterios que ha seguido para enseñar un chatbot a responder frente a determinadas situaciones; incluso para ella hay funcionalidades que son cajas negras. Rendición de cuentas: en un accidente donde está involucrado un coche de conducción automática cuyo software de Machine Learning no ha funcionado adecuadamente, no se puede discernir la autoría de la culpa (el desarrollador de la aplicación de IA, el integrador, el fabricante del coche, …). Protección de datos personales: una persona no autorizada accede a los perfiles de usuario generados por una aplicación de ML y los divulga. Haciendo un mapeo de los impactos potenciales sobre los activos identificados en el ciclo de vida de las soluciones de IA , ENISA establece una taxonomía de amenazas dividida en las siguientes 7 categorías: Actividad/Abuso Malicioso: acciones destinadas a robar, alterar o destruir un determinado activo. Escucha/Intercepción/Secuestro: acciones destinadas a escuchar interrumpir o tomar el control de la comunicación de terceros sin ningún tipo de consentimiento. Ataques Físicos: acciones destinadas a destruir, alterar, deshabilitar, robar o acceder de forma no autorizada a activos físicos como infraestructura o hardware. Daño No Intencionado: acciones no intencionadas que causan destrucción o daño de la propiedad o a personas y resulta en un fallo o reducción de la funcionalidad de la aplicación. Fallo o Funcionamiento Fallido: funcionamiento insuficiente de un activo. Interrupción: corte inesperado de servicio o degradación de la calidad del servicio por debajo del nivel esperado. Desastre: accidente fortuito o catástrofe natural que causa daño o pérdida de vida. Legal: acciones de terceros basadas en la legislación, y destinadas a prohibir acciones o a compensar frente a pérdidas producidas. En total, estas 7 categorías se desglosan en 74 amenazas, complementadas a través de los Anexos B y D que especifican el activo afectado y su impacto, así como el mapeo con el ciclo de vida de la IA. 3. CONCLUSIONES El Informe de ENISA aparece en un momento oportuno: La IA se integra de forma progresiva en cada vez más aspectos de nuestra vida. Se están empezando a definir diferentes estrategias de IA, tanto en España como en otros países de la UE y del resto del mundo. El crimen organizado es cada vez más eficaz y rentable, y golpea con cada vez más crudeza organizaciones y ciudadanos. Es por lo tanto indispensable contar con una taxonomía de amenazas que sean específicas a la IA para conocer de qué manera el crimen organizado (u otros actores malintencionados como Estados o Ciberactivistas) pueden poner en riesgo las aplicaciones basadas en IA y cuál es el daño que pueden realizar. Este conocimiento debe ser aprovechado para identificar las estrategias de protección que, no debemos olvidar, es uno de los pilares de la confianza en la IA. Por otra parte, este estudio debe tomarse como un punto de partida. La investigación de la ciberseguridad en el campo de la IA es un trabajo constante que debe revisarse periódicamente. Cada nueva tecnología emergente traerá consigo nuevas amenazas y nuevos impactos que deberán ser evaluados. Por lo tanto, la Taxonomía de amenazas de ENISA deberá ser revisada de forma periódica para asegurar que sigue vigente. Además, hay que tener presente que dicha taxonomía es genérica y aplicable a cualquier sistema o aplicación basado en IA por igual. Cuando se realice un análisis de riesgos, habrá que tener en cuenta el contexto y se deberá evaluar las amenazas que son específicas a cada sector en el que está siendo usado (automóvil, sanitario, industrial, defensa, …). Finalmente, desde OdiseIA somos conscientes que estas iniciativas sólo serán efectivas si las administraciones públicas incentivan que las empresas adopten medidas de seguridad en las soluciones de IA, y los usuarios son cada vez más conscientes y piden seguridad en los productos. Por ello apoyamos este tipo de iniciativas que tienen como objetivo hacer que la IA pueda ser usada de forma fiable, y ayudamos a su divulgación. [1] Entendida como seguridad que no produce daño (al ser humano) o perjuicio. [Para tener acceso al documento de análisis de mayor extensión, no dudes en encontrarlo uniéndote a nuestras redes sociales de Twitter y Linkedin]
- “El dilema de las redes sociales”. Una cuestión de poder
El debate La tecnología que nos conecta también nos controla, manipula, polariza, distrae, monetiza, divide… El mensaje y las conclusiones de los autores y protagonistas del documental son claros y directos. Sobre ellas, sobre el “dilema de las redes sociales”, las reacciones que ha provocado o las posibles actuaciones o soluciones frente al poder de las redes han debatido dos decenas de socios de OdiseIA, profesionales de distintas áreas, muy vinculados y conocedores de las últimas tecnologías en sus distintas aplicaciones. Apenas empezado el diálogo un primer punto, de acuerdo, haberlo visto o saber de qué va el documental está siendo el origen de una conversación que ha transcendido más allá de él, expandiéndose exponencialmente sin limitarse por fronteras, para poner fuera de las redes cuestiones como la consciencia social o cómo se diseña y funciona la tecnología que usamos tan habitualmente y a la que, en general, tan poca atención se presta con toda la importancia e impacto que tiene en nuestras vidas. Salud mental En el ¿bienestar digital? en el que vivimos esta ficción de Netflix explica cómo funcionan los algoritmos y sus objetivos y nos plantea distintos dilemas, como el de la salud mental. Tal como recoge un estudio de 2017 de la American Journal of Epidemiology se comprobó que un mayor uso de los medios sociales se correlacionaba con un descenso de la salud mental y física y de la satisfacción con la vida. Algunos de los participantes en el debate, por propia experiencia, hablaron de esa fatiga, de a cabar siendo profesionales “quema dos”, de la hiperconectividad sin horarios y de cómo acaba afectando a la salud física y mental, en demasiadas ocasiones, sin que nosotros mismos queramos ser conscientes de ello pensado que lo tenemos controlado. También, pese a todas estas contrariedades, de la oportunidad que encontraron para un cambio, para descubrir de dónde viene esta tecnología, de la necesidad de la ética y de hablar y tener en cuenta un bienestar digital real, de hacer y fomentar el uso responsable de la tecnología y de la ocasión, tanto personal como en la sociedad, para tomar decisiones y acciones. Propuestas planteadas fueron mantener relaciones más saludables con la tecnología, como el Digital Wellness, o “tomar acción” para que se diseñe, regule y use pensando en la sociedad. Un apunte, muy presente en la serie y cotidiano en nuestros días, el impacto que tiene en la juventud el uso de las redes, su dependencia, las relaciones que establecen en ellas, etc. en un momento c lave de sus vidas, el de la construcción de sus propias identidades y la formación de su personalidad. Ahora además se produce, con esta pandemia, con un enorme distanciamiento afectivo, con la alteración de referencias que permitan entender lo que se ve, lo que se siente… Discriminación y sesgos Entre otros temas de trabajo de OdiseIA está uno de los dilemas planteados, el de la discriminación y los sesgos. La propia Facebook, protagonista indiscutible del documental, recogía en un informe interno de 2018 que el 64% de las personas que se unieron a grupos extremistas en Facebook lo hicieron porque los algoritmos los guiaron hasta allí, al igual que le sucede a uno de los actores que interpreta un papel principal en “El dilema de las redes sociales”. No deja de sorprender que la tecnología, que es agnóstica en sí misma, tenga tantos efectos positivos y, a la vez, tantos negativos. Es paradójico que nos haya dado acceso a la mayor cantidad de información abierta jamás imaginada por el ser humano, haciendo visible tanto la histórica como la actual, pero que, al mismo tiempo, los algoritmos sean los creadores de burbujas basadas en recomendaciones personalizadas que, finalmente, limitan nuestro acceso y conocimiento de múltiples contenidos por estar en un bucle continuo de información, datos o contactos similares a los “supuestamente” preferidos por el usuario. Es en este círculo limitado en el que coinciden las opiniones y preocupaciones de la mayoría de los participantes en el debate, en estos nichos que restringen el conocimiento o en los que, para los juristas y especialistas en IA del grupo, priman los beneficios dando al usuario “lo que sea”, los intereses empresariales y, en especial tener poder, sobre la ética, el respeto o en la definición de cómo será un futuro claramente tecnológico. Encuentran en este modelo de negocio un gran riesgo de “destrucción masiva” ya que, opinan, “no predicen el futuro, lo causan” y es difícil de discernir si estas actuaciones o los c omportamientos de los algoritmos, como los sesgos, son inevitables, involuntarios o voluntarios, responsables… Debate sobre “El dilema de las redes sociales” en OdiseIA Para las personas juristas del grupo, el aislamiento de la realidad, la creación de vidas paralelas que forman sociedades digitales virtuales que replican al mundo real o crean nuevas con sus ciudadanos, sus principios, sin fronteras… supone un desafío y una preocupación ya que, en nuestra vida cotidiana el marco normativo es muy importante, pero ¿con qué reglas, valores, principios, etc. se rigen estas sociedades virtuales? ¿Cuáles pueden considerarse como correctas? ¿Cómo podría ser su traslación al mundo real? Democracia y fake news Un dilema crítico en la actualidad es el de la democracia, con el aumento de las fake news y las campañas de desinformación, recogidos en múltiples informes de gobiernos, organizaciones, instituciones, ONGs… o con el impacto que han tenido en distintas elecciones, como fue el caso de las presidenciales estadounidenses de 2008 o el escándalo Cambridge Analytica. El control y uso de los datos, basado en el conocimiento de la psico logía social y en los hábitos, costumbres y preferencias de los usuarios/clientes, carente de preocupación por cumplir o proteger derechos fundamentales por la obtención de beneficios emp resariales, ha demo strad o que m arca y condici ona c omportamientos individuales y colectivos pero, ¿deberían ser así? ¿Es suficiente el criterio de un algoritmo para conceder, restringir o denegar información o servicios? ¿Para determinar actuaciones humanas?… Como pueda ser desde la compra de una prenda de vestir a la orientación de un voto en cualquier democracia consolidada y libre. Estos condicionantes del comportamiento inquietan por la amenaza que supone que un algoritmo, o los intereses que estén detrás, puedan causar una “uniformidad de manipulados” con un comportamiento predecible por los dictados de la IA o por cumplir con los requisitos que esta supuesta inteligencia superior pueda plantear, aunque ésta sea “estúpida”. Surge, incluso, la pregunta de si las tecnologías “inteligentes”, o sus aplicaciones, deberían ser un servicio público, con sus reglas, instrumentalizadas y definidas dentro de un modelo social. Impacto personal Con todas estas cuestiones en debate entre los socios se planteó una cuestión personal: “¿Qué os ha parecido, qué os ha hecho sentir el documental?”. Respuestas habituales fueron “sorpresa, impotencia, preocupación, inquietud, pena, escepticismo…” por el uso que se da a la IA, por los sesgos y el modelo de negocio basado en la extracción de datos de los usuarios, por el “¿dónde vamos o hasta qué punto llegaremos?”. También felicidad por que este tema empiece a ser conocido, que genere impacto en la sociedad y que seamos conscientes de los grandes beneficios de la tecnología, de los avances o de las ventajas de conectar y compartir, pero siendo conscientes de que “el mal está ahí”. Por otro lado, se echó en falta determinados contenidos o la participación de responsables o personal actual de Facebook, dado que las personas protagonistas fueron empleadas hace años o son ajenas completamente a ellos. También que pueda ser en algunas cuestiones amarillista, excesiva o carente de matices. Es importante destacar que Facebook, en una acción poco habitual, ha dado en siete puntos una respuesta oficial a este documental de Netflix, cuyo algoritmo, no dejó de ser comentado. ¿Acciones? Y si estamos concienciados e impactados, ahora: ¿qué acciones se podrían tomar? Hay una primera reflexión histórica: las audiencias siempre se han buscado. Desde hace décadas se estudi an comportamientos para adaptar los contenidos a la demanda, intereses o, más recientemente, la experiencia de usuario. Hace unos años llegaron la IA y los algoritmos, con todos sus beneficios y de la mano de dos cuestiones negativas: el concepto de burbuja (ejercicio de eficiencia como modelo de negocio) y la vinculación emocional. Las redes sociales podrían, de alguna manera, asemejarse al modelo de negocio del narcotráfico: crean adicción y redes clientelares para influir en las acciones de las personas, modificar su conducta y, esencialmente, tener dinero y poder. Un primer paso sería identificar qué acciones están en manos de las redes o de quiénes las controlan y cuáles en las nuestras. Como usuarios deberíamos recuperar capacidad crítica y sentido común para tener la oportunidad de decidir y definir quiéne s somos y qué quer emos. Co mo ciudadanía es importante ser consciente de que tenemos un problema colectivo, así como trabajar y demandar mejoras en la educación, en que se enseñe a manejar la tecnología y a tomar decisiones o en el conocimiento y protección de la ética y los derechos, sin olvidar los deberes. ¿Cómo podemos llevarlo desde abajo hasta arriba? Frente al escepticismo y falta de acción de las compañías, ya que la ética no es rentable económicamente, sí que se puede sensibilizar y movilizar a la sociedad (usuarios y clientes de las redes) y convencer a los anunciantes (financian este modelo de negocio), para que tomen acciones que obliguen a las empresas a tomar decisiones directas. Como usuarios/consumidores tenemos margen de influencia y responsabilidad, las empresas anunciantes, que se juegan su dinero e imagen, también. Además, frente a los modelos estadounidense y chino, en los que priman el mercantilismo, el control y la homogeneización para beneficio de empresas y estado, nunca para el individuo (al que se ha privado de sentido crítico y responsabilidad), en Europa contamos con el amparo del marco legal que proporcionan las instituciones comunitarias y que, en la mayoría de los estados miembros, se aplica en las legislaciones nacionales. En el tintero China, al igual que otras cuestiones “elefantes” como el uso de perfiles falsos o el flujo de datos a las agencias de inteligencia, quedaron apenas comentados por falta de tiempo. También si ahora sabemos que nuestros datos cuestan y generan negocio y dinero ¿hasta qué punto queremos ceder nuestra privacidad gratuitamente? ¿Qué consideramos como irrenunciable? Seguro que en próximas citas de OdiseIA estas y otras preguntas encontrarán debate y respuesta. David Corral Hernández es Responsable de Innovación de Contenidos en RTVE y Socio de OdiseIA. [Este artículo no representa la posición oficial de RTVE ni de OdiseIA en su conjunto]












