top of page

Search Results

44 resultados encontrados

  • Hablemos de ética de los robots: Área Relación Robots-Personas

    Desde OdiseIA prestamos especial atención al Área de Relación Robots-Personas, donde nos ocuparemos de soluciones como los robots sociales o la interacción cerebro-ordenador, proporcionando criterios éticos y buscando sobre todo el impacto social positivo. En OdiseIA seguimos avanzando y cubriendo más y más desafíos éticos y sociales ligados a la inteligencia artificial y también más y más enfoques sectoriales que van a encontrar un fuerte impulso con la puesta en marcha de nuestra iniciativa GuIA. En el apartado de desafíos ya trabajamos en aspectos tan importantes como la privacidad o la Inteligencia Artificial Inclusiva. Pero además, y en esa línea de avanzar en nuevos desafíos, prestamos especial atención a un área cuyo objeto de trabajo son los robots y, más concretamente, la interacción de los robots con las personas . Y, por ello, hemos bautizado a esta área como “ Área de relación robots-personas ”. Se trata de un área muy transversal. Un área en cuyo desarrollo y análisis se entrecruzan, por supuesto, elementos tecnológicos y problemáticas éticas, pero donde tienen también mucha cabida las aportaciones provenientes de campos como pueden ser la psicología, la antropología o la sociología. En el área de relación robots-personas nos centraremos principalmente en el análisis de tres tipos de soluciones y sus implicaciones éticas y sociales: 1) Robots sociales : un tipo de robots que salen del ámbito de la fábrica o el almacén para llegar al mundo de los servicios e, incluso, al ocio, a los hogares o a la atención socio-sanitaria. Un tipo de robot que con mucha frecuencia adopta formas humanoides y que se relaciona con las personas usando nuestros mismos medios de comunicación social como puede ser la voz, la mirada, el gesto, la expresión facial o el movimiento. Y unos robots que son capaces de detectar emociones en las personas y de expresarlas ellos mismos de una forma consistente y natural. En la base tecnológica y científica de este tipo de soluciones se encuentran, aparte de todos los aspectos propios de la robótica general y de la inteligencia artificial, incluyendo la visión artificial o el procesamiento de lenguaje natural, disciplinas más especializadas como HRI ( Human-Robot Interaction ) o ‘ Affective computing ’. 2) Asistentes virtuales y altavoces inteligentes : un tipo de soluciones ya bien conocidas por el gran público y que se relacionan con las personas fundamentalmente mediante el lenguaje y la voz. Aunque en su diseño y aspecto son planteamientos quizá algo más alejados de lo que normalmente entendemos por robot, al menos un robot humanoide, comparten con la robótica social algunos de sus desafíos éticos y posibilidades sociales y por ello parece conveniente unirlos bajo un mismo paraguas de estudio. 3) Exoesqueletos e interacción cerebro-máquina : unas tecnologías y soluciones que cambian el paradigma usado en los dos anteriores. En este caso, la relación entre la persona y la máquina o estructura robótica (como puede ser un exoesqueleto), no se produce mediante mecanismos de interacción social como el lenguaje, sino mediante una conexión directa de la máquina con el cerebro o el sistema nervioso de la persona según las tecnologías agrupadas bajo la denominación BCI ( Brain Computer Interface ). RELEVANCIA ÉTICA DEL ÁREA RELACIÓN ROBOTS-HUMANOS Los planteamientos éticos en lo relativo a la relación de los robots con las personas presentan facetas muy especiales. Es cierto que algunas de las problemáticas éticas que nos podemos encontrar son comunes a otro tipo de sistemas y soluciones. Así, por ejemplo, sigue siendo un reto el mantener la privacidad e intimidad de las personas. Al fin y al cabo, los robots, en su interacción con las personas, recogen información proveniente de éstas. Polémicas como la eventual escucha y procesamiento de conversaciones por parte de sistemas de altavoz inteligente están encima de la mesa y forman parte de la actualidad. Sin embargo, una parte importante de los retos éticos relacionados con los robots son sutiles y singulares. Sin abandonar todavía lo relativo a la privacidad, conviene tener en cuenta que algunos robots sociales captan información emocional de las personas. Es más, las personas pueden aportar, en la confianza que adquieren con el robot, información sensible sobre ellos mismos o su entorno. Y qué decir cuando esa información puede provenir directamente del cerebro o sistema nervioso de la persona. Se trata, pues, de una forma de enfocar la privacidad algo diferente, no tanto quizá en sus fundamentos éticos e incluso legales, pero sí probablemente en cuanto a su estudio teórico y procedimentación práctica. Quizá uno de los retos éticos más relevantes en lo relativo a la relación de los robots con las personas tenga que ver con la vinculación afectiva . Las personas tienden a establecer una vinculación emocional con los elementos con los que interactúan, sean estos animados o inanimados. Esto es especialmente relevante en el caso de los robots sociales en que con frecuencia su diseño intenta de forma intencionada, precisamente, establecer una relación satisfactoria con el interlocutor humano. Esto se suele hacer con la mejor de las intenciones y con frecuencia, con el mejor de los resultados, ya que la interacción es más natural, más fácil, más agradable y más productiva. Sin embargo, conviene estar prevenidos ante una vinculación emocional excesiva de los humanos con los robots, una vinculación que pueda degenerar en dependencia emocional del robot o incluso en aislamiento de otros seres humanos. Y, por desgracia, los robots, como cualquier sistema digital, pueden ser objeto de uso malicioso o de ciberdelincuencia y ser usados, por ejemplo, para la manipulación de las personas o la obtención de información sensible. Nuestro último bloque de soluciones objetivo, las interfaces cerebro-ordenador y los exoesqueletos, compartiendo algunos retos con los otros tipos de soluciones robóticas, abren algunos debates éticos tal vez más futuristas y quizá también de un mayor calado filosófico y trascendental, entrando en relación con temáticas como la propia naturaleza humana, el transhumanismo o la humanidad aumentada . VISIÓN Todos esos retos éticos forman parte del campo de trabajo de esta área. Sin embargo, la existencia de esas problemáticas éticas, no debe ser impedimento para una visión optimista y orientada a la acción . Los robots tienen muchísimo que aportar a nuestra sociedad. Y no hablamos únicamente, de todo lo que tiene que ver con avance tecnológico, con eficiencia de procesos, con nuevos productos y servicios o con desarrollo económico. Todo ello justifica, de sobra, el interés por los robots y la apuesta por su desarrollo e implantación. Pero además los robots ofrecen unas posibilidades fantásticas de impacto social positivo , un impacto que, más allá de lo estrictamente económico, nos permite de hablar del uso de los robots para el bien . Existen experiencias exitosas, por ejemplo, del empleo de robots en educación y no sólo en educación general de niños o personas, sino también en la educación de niños, por ejemplo, con trastornos del espectro autista. Existen también pilotos de soluciones basadas en interacción cerebro-ordenador para mejorar las condiciones de enfermos de Parkinson, y, combinados con exoesqueletos o estructuras robóticas, para la rehabilitación incluso de tetrapléjicos. Se ha experimentado también con éxito en el alivio de la soledad , en la compañía y ayuda a ancianos e, incluso a personas afectada de demencia empleando robots sociales. Las posibilidades de uso de los robots para el bienestar de las personas, especialmente de colectivos vulnerables o desfavorecidos, constituyen por sí mismos una exigencia ética . Y, en el fondo, es esta última exigencia ética la que más nos anima e impulsa. En esta nueva área que ahora lanzamos, el área de relación robots-personas, queremos crear  conciencia  y hacer  divulgación . Queremos también proporcionar  criterios éticos  para el uso de este tipo de soluciones basadas en robots. Pero, sobre todo, nos encantaría conseguir ese  impacto social positivo . Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es Profesor, Director académico y mentor de proyectos en Escuela de Organización Industrial y colaborador en otras escuelas de negocio. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y en 2021 ha publicado “Robots en la sombra: RPA, robots conversacionales y otras formas de automatización cognitiva” (Anaya Multimedia).

  • ¿Qué implicaciones va a tener la AI Act europea sobre las soluciones para Ciudades Inteligentes?

    El borrador de la ley europea sobre inteligencia artificial establece nuevos requisitos para las soluciones tecnológicas que hagan uso de la inteligencia artificial en casi todos sus ámbitos de aplicación. En este análisis desgranamos las implicaciones para aquellas soluciones destinadas a optimizar procesos de gestión urbana. El pasado mes de abril de 2021 la Comisión Europea presentó una propuesta de ley sobre inteligencia artificial que en la actualidad se encuentra en tramitación parlamentaria. En aquel momento debatimos sus principales novedades en esta jornada organizada por OdiseIA y FIAL. Hoy queremos aterrizar sus implicaciones en un ámbito bastante transversal como es el de las soluciones orientadas a mejorar la gestión urbana, IA para ciudades inteligentes . Ante la regulación hay básicamente dos actitudes: hay quienes la consideran una barrera para la innovación, y quienes consideramos que ha sido precisamente la regulación la que ha contribuido de forma determinante a la seguridad en muchísimos ámbitos: el transporte terrestre, aéreo o la seguridad alimentaria son ejemplos del pasado. Hoy llega al ámbito de los desarrollos tecnológicos, y sin duda será positivo para evitar determinados riesgos a través de protocolos y controles de calidad . El primer punto a destacar es la definición amplia de inteligencia artificial que hace el borrador en su artículo 3 y en su anexo I. Así, cualquier sistema que recabe datos y los procese para generar un resultado (desencadenar una acción o decisión, esté o no automatizada) cae bajo dicha definición y por tanto bajo lo dictado por esta nueva norma, independientemente del nivel de sofisticación analitica de los algoritmos empleados en el procesamiento de datos para generar la información de salida. El segundo punto relevante es que la AI Act hace una jerarquización de las soluciones específicas en función de su riesgo potencial . Esta taxonomía no se basa en sectores específicos (salud, justicia, movilidad, ciudades inteligentes, etc.) sino que reconoce que dentro de cada uno de estos sectores puede haber multitud de casuísticas de nivel de riesgo muy dispar, y por tanto es más granular: se centra en aplicaciones específicas que pueden aplicar a uno o varios de estos sectores. Así, distingue entre las siguientes clases: Aplicaciones prohibidas (título II, art. 5) Aplicaciones de alto riesgo (título III, art. 6 y siguientes) Aplicaciones sujetas a obligaciones de transparencia (título IV, art. 52) Resto de aplicaciones, que podrán estar sujetas a códigos de conducta voluntarios (título IX, art. 69) Recorramos a continuación las soluciones utilizadas en  ciudades inteligentes  de acuerdo a esta jerarquización según su primera versión, que será revisada periódicamente. 1.-Aplicaciones prohibidas Entre otras, prohíbe las aplicaciones de IA para vigilancia y seguridad ciudadana mediante identificación biométrica remota «en tiempo real» en espacios de acceso público*. *salvo que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes: i) la búsqueda selectiva de posibles víctimas concretas de un delito, incluidos menores desaparecidos; ii) la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de un atentado terrorista; iii) la detección, la localización, la identificación o el enjuiciamiento de la persona que ha cometido o se sospecha que ha cometido algún delito grave (para los que la normativa en vigor en el Estado miembro implicado imponga una pena privativas de libertad cuya duración máxima sea al menos de tres años) Aquí hay varios aspectos por revisar: ¿qué riesgo se quiere evitar? Si es la vigilancia indiscriminada por el problema de privacidad que supone, entonces debería prohibirse no solo «en tiempo real» sino también «en diferido», y además debería vetarse que se haga cuando es un humano el que está tras la cámara, o en caso contrario estaríamos penalizando una tecnología como la IA, y no una aplicación. La segunda cuestión abierta es si por «espacio de acceso público» estamos abarcando no solo espacios de titularidad pública (calles, plazas, edificios administrativos, terminales de transporte) sino además todo inmueble abierto al público y accesible por la población general (comercios, oficinas bancarias, etc.). Recordemos que el vigente reglamento general de protección de datos europeo y la LOPD nacional ya fueron suficientes para sustentar la sanción de AEPD frente a Mercadona . 2.-Aplicaciones de alto riesgo Entre ellas, las que pueden afectar a un gobierno local o a una empresa de prestación de servicios urbanos son: Sistemas de IA que manejen maquinaria con efectos potenciales sobre la seguridad física de sus usuarios , lo que afecta a las soluciones de movilidad mediante vehículos autónomos , entre muchas otras. Sistemas de IA de identificación de personas por imagen, voz o cualquier otra característica personal , lo que afecta a los sistemas autenticación biométrica utilizados por cualquier entidad, incluídos los desarrollados para facilitar las interacciones entre un ayuntamiento y los ciudadanos, o los de control de acceso a edificios públicos por parte de ciudadanos o empleados municipales. Relaciones laborales y gestión de recursos humanos: sistemas de IA que guíen decisiones de contratación, promoción, despido, o la asignación de tareas y evaluación del rendimiento de empleados. Algo que afectará a entidades tanto públicas como privadas y que responde a preocupaciones desencadenadas por determinadas consecuencias del uso de algoritmos para estos propósitos. Acceso a servicios públicos esenciales: sistemas de IA para evaluar la admisibilidad de las personas físicas de cara a regular su acceso a prestaciones de asistencia pública, o que prioricen la respuesta en el envío de servicios de primera intervención en situaciones de emergencia (bomberos, policía, protección civil, restablecimiento de servicios urbanos, etc.) Asuntos relacionados con procesos democráticos: queda por ver si se ciñe a sistemas informáticos para facilitar procesos electorales, o abarca también las herramientas utilizadas en procesos de participación ciudadana . Todas estas aplicaciones estarán sujetas a una serie de requisitos que comenzarán por la obligación de  registrar la solución desarrollada en una una base de datos pública para toda la UE , lo que permitirá que las autoridades competentes, los usuarios y otras personas interesadas verifiquen si un sistema de IA de alto riesgo cumple los requisitos estipulados, y que se resumen en el siguiente cuadro: 3.-Aplicaciones sujetas a obligaciones de transparencia Los sistemas de IA destinados a interactuar con personas físicas -por ejemplo, los chatbots de atención ciudadana, ya sea por comunicación escrita u oral -estarán diseñados de forma que dichos ciudadanos estén informados y sean conscientes de que están manteniendo una conversación con un sistema de IA, excepto en las situaciones en las que esto resulte evidente debido a las circunstancias y al contexto de utilización. 4.-Códigos de conducta voluntarios para el resto de aplicaciones La Comisión y los Estados miembros fomentarán y facilitarán la elaboración de códigos de conducta destinados a promover entre el resto de sistemas de IA no considerados de alto riesgo la aplicación voluntaria de todos o algunos de los mencionados requisitos establecidos para el control de dichos sistemas. Conclusiones La propuesta de ley sobre inteligencia artificial de la Unión Europea es pionera a nivel mundial al establecer un marco claro de desarrollo y uso de la IA sobre la base de las consideraciones que las diferentes estrategias nacionales de IA ya habían avanzado en los últimos años . Los estándares de trabajo, controles de calidad, procesos de certificación y agencias de control que deriven de esta novedad regulatoria dotarán de nuevas garantías de seguridad a los ciudadanos de la UE , y los desarrolladores extranjeros que desplieguen sus soluciones en la UE estarán también obligados a cumplir con este nuevo marco. Los sistemas de IA sujetos a requisitos son ante todo aquellos que interactúan con los ciudadanos, y que comportan  riesgos potenciales  para los bienes jurídicos que la AI Act quiere proteger: la seguridad física de los individuos, su intimidad, o sus derechos de acceso a servicios públicos en igualdad de condiciones y sin sufrir discriminación. El resto de aplicaciones a priori no estarán sujetas a requisitos especiales, salvo que sus desarrolladores quieran adherirse y aplicar códigos de conducta voluntarios. Ejemplos de este tipo de aplicaciones son los desarrollos orientados a hacer una lectura y monitorización de los flujos del metabolismo urbano sobre dato no personal : análisis de movilidad a partir de datos agregados de geoposición de terminales móviles análisis de consumo o de actividad turística sobre datos agregados de pagos con tarjeta análisis y gestión de las redes de suministro de energía eléctrica análisis y gestión de la red de suministro de agua potable gestión automatizada del riego en zonas verdes gestión de las redes de saneamiento e infraestructuras de depuración gestión de la limpieza de espacios públicos y de recogida y tratamiento de residuos sólidos urbanos gestión automatizada del sistema de alumbrado público (…) Así, las soluciones empleadas para diseñar las infraestructuras que dan soporte a dicho metabolismo, para optimizar o automatizar la gestión de redes, o para llevar a cabo mantenimiento predictivo, se consideran de bajo riesgo siempre que funcionen sobre datos no personales y no den respuesta a ciudadanos concretos en una interacción individual. Lo mismo sucede con el desarrollo de gemelos digitales o modelos informáticos de la realidad física para su diseño ex novo -o para el análisis de su funcionamiento en el caso de elementos ya existentes- siempre que no pongan en riesgo los bienes jurídicos que la AI Act protege. En definitiva, una vez que este nuevo marco legal sea aprobado por el parlamento europeo, habrá un periodo de tiempo previo antes de su aplicación plena. Este tiempo debe ser aprovechado por empresas y gobiernos para conocer pormenorizadamente los nuevos requisitos, adaptar las soluciones para ciudades inteligentes al mismo, y tenerlas en cuenta en el diseño de nuevos servicios. Formamos parte del área de Sostenibilidad y Ciudades Inteligentes de OdiseIA: Ignacio Alcalde , Fernando Tomás , Carmen Panadero , Juan Jose González y Juan Murillo , entre otros.

  • Siguiente paso: la Inteligencia Artificial Emocional (IEA)

    La Inteligencia Artificial es, sin duda, una tecnología en plena expansión, pero en realidad no tengo tan claro si sigue necesitando el calificativo de “nueva”. No es tan nueva tecnología. En realidad, lleva desarrollándose: al menos desde 1956, según cuenta el Dr. Esteban García-Cuesta en su artículo “ Inteligencia artificial: presente y futuro ”, en la colección de artículos STEAM Essentials de la Universidad Europea. Es decir, la inteligencia artificial lleva desarrollándose casi el mismo tiempo que los ordenadores. ¿Alguien llama “nueva tecnología” a la computación? Me temo que no. Lo que sí que ocurre con la IA es que cada vez está presente en más entornos, cada vez utilizamos más sus técnicas para más procesos. Navegadores que calculan la ruta más rápida teniendo en cuenta el tráfico actual, altavoces inteligentes, recomendadores de servicios o de productos, asistentes personales que reservan huecos de tu agenda para “concentración”, etcétera. Ahora, la IA está presente en casi todas partes y, en los entornos donde no está, es porque aún no ha llegado, pero ya está en camino. Todos los artículos sobre la historia de la IA coinciden en una cosa: el objetivo de la IA en sus comienzos era simular la inteligencia humana, así que su desarrollo está muy ligado a lo que realmente conocemos sobre ese concepto, el concepto de inteligencia. “Doctores tiene la iglesia”, así que dejo a las personas expertas que nos expliquen, si quisieran hacer el favor, en los comentarios, el estado actual de la cuestión sobre “qué es la inteligencia” y, sobre todo, qué aún no sabemos pero sospechamos sobre ella. Quizás ahí encontremos los próximos caminos de desarrollo de la propia IA. Una cosa que sí sabemos sobre la inteligencia, sin ninguna duda, es que es diversa. Existe la inteligencia en múltiples formas. Ya no es, como se creía hace no mucho tiempo, patrimonio exclusivo de “la mente”, la filosofía y las matemáticas. Hay inteligencia en el movimiento (inteligencia kinesética), en la música (inteligencia musical) y resto de las artes. También en las emociones: la inteligencia emocional. La inteligencia emocional nos permite comprender las emociones, propias y ajenas, y manejarlas correctamente. Incluso, con entrenamiento (ya sea consciente o inconsciente), una persona emocionalmente inteligente, es decir, con un alto grado de desarrollo de la inteligencia emocional, es capaz de provocar (y provocarse) determinadas emociones de forma consciente. La inteligencia emocional cuenta con la empatía emocional como vehículo de transmisión de emociones. Photo by Tengyart on Unsplash Pues bien, si la inteligencia artificial pretende emular la inteligencia natural de los seres humanos, lógico es que queramos desarrollar una Inteligencia Emocional Artificial (IEA). El término IEA tiene gancho, pero ¿qué es? ¿Cómo lo definiríamos? ¿Existe algo similar o es pura ciencia ficción “de momento”? ¿Existirá en el futuro o es una quimera? IEA DÉBIL Y FUERTE: PRESENTE Y FUTURO Sabemos clasificar a la IA en dos tipos: la IA débil y la IA fuerte. La IA débil existe en la actualidad. Consiste en utilizar las técnicas desarrolladas en la IA para resolver problemas complejos, pero conocidos previamente. Es decir, un programa de IA que ayuda en el diagnóstico de enfermedades, como la detección de COVID analizando radiografías de pulmón, o un altavoz inteligente que analiza las órdenes verbales para ejecutarlas. La IA fuerte consistiría en programas de IA que deciden, de forma autónoma, qué problemas van a resolver y luego, lo resuelven de nuevo eligiendo autónomamente las técnicas y los algoritmos más apropiados “según su criterio”. Es decir, la IA fuerte se comportaría como una persona humana en muchos aspectos, discriminando de sus datos de entrada lo que le interesa en un momento determinado y utilizándolos para lo que estime oportunos. Esta IA fuerte aún no existe y, al menos yo, no soy capaz de aventurar una fecha para su “primer lanzamiento”. Lo que sí que sabemos es que se están dando pasos decididos en esa dirección. Puede que sea la línea del horizonte, inalcanzable nunca porque se aleja según nos acercamos, pero sí que sirve para marcar el avance de la IA. Intentar alcanzar la IA fuerte es el motor que permite hacer crecer a la IA débil y explorar cada vez más escenarios. Pues bien, de la misma forma podemos definir la IEA fuerte y la IEA débil. La IEA débil (IEAD) sería entonces aquellos desarrollos basados en IA capaces de identificar emociones humanas entre sus datos de entrada y, puede, que usarlos para proponer o realizar nuevas acciones. Esta IEAD sí que existe ya y crece por momentos. Prueba de ello es el congreso Emotion AI organizado hasta el 2019 en el MIT (el 2020 fue suspendido por la pandemia). Hay muchos ejemplos concretos en entornos de investigación (análisis de interacciones de un usuario en redes sociales o foros para detectar su estado anímico; avatares gráficos que simulan emociones con sus gestos, diversos tonos de voz para altavoces inteligentes o en chatbots ) y en la prensa aparecen de vez en cuando situaciones en las que se usa para cometer delitos o crear fake news (suplantación de voces para ordenar transferencias de dinero; vídeos trucados que simulan personas famosas hablando, etc.). De momento, aplicaciones de uso común que usen claramente IEA hay pocas, pero parece que proliferarán pronto, seguramente durante los primeros años de esta década del 2020. La IEA fuerte (IEAF) es otra cosa. Creo que confiar que pronto aparezca una IEA (montada sobre un androide o en un servidor en la nube) que nos ayude a prevenir los suicidios, las bajas laborales por causas emocionales, a tratar la depresión, es posible. Pero esperar que exista una IEAF que decida autónomamente qué emoción “sentir” y comportarse en su relación consigo misma y con el medio que la rodea, incluyendo su relación con los seres humanos, es todavía muy aventurado. No digo que no sea posible; lo que digo es que la moneda de su existencia está todavía volando y no sabemos si caerá de cara (existirá) o de cruz (se quedará en el campo de la ciencia ficción). NUEVAS DIRECCIONES Pero, de nuevo con el símil del horizonte, los pasos que demos en esa dirección, si los damos bien, con responsabilidad y bajo el timón de fuertes principios éticos, harán avanzar el estado del bienestar hacia adelante. Si, por el contrario, miramos para otro lado o cerramos los ojos, negando esa posibilidad y sin hacer nada al respecto, corremos un fuerte peligro. La comprensión de nuestras emociones y su análisis formal que permita desarrollas la IEA como herramienta, facilitará, y mucho, las posibilidades de inclusión de cada vez más personas y colectivos. De hecho, para muchas personas con una forma distinta de aprender (discapacidad cognitiva), con formas diferentes de relacionarse con los demás (como las personas enmarcadas dentro del espectro autista), o personas mayores, muy mayores, la IEA podría ser una mejor opción para formar parte de una sociedad con una fuerte tendencia a la estandarización en todo. Juan José Escribano Otero es Profesor titular de la Universidad Europea. Miembro de AENUI (Asociación de Enseñantes Universitarios de Informática) y director del Área IAI (Inteligencia Artificial Inclusiva) de OdiseIA. juanjose.escribano@gmail.com juanjose.escribano@universidadeuropea.es

  • AI for Good

    OdiseIA y PwC han celebrado la sesión AI FOR GOOD, Inteligencia artificial para una sociedad y un planeta mejor, dondeseha puesto de manifiesto la importancia de tener información actualizada para enfrentarnos a retos difíciles de resolver con métodos tradicionales. La colaboración de humanos y tecnología, con un marco ético, permite atajar de manera más precisa estos grandes desafíos de nuestro tiempo. Sobre las diferentes aplicaciones de la Inteligencia Artificial hemos hablado con un panel de especialistas invitados de primer nivel: Alberto Pinedo.  National Technology Officer y responsable del equipo dedicado al uso ético y responsable de la inteligencia artificial en Microsoft. Víctor Khodayar.  Asesor Regional de Alianzas Estratégicas y Programas para Europa y Asia Central en la Oficina de las Naciones Unidas. Miguel Rodríguez.  Ingeniero de nuevas tecnologías y metodologías de innovación para el impacto social en TECSOS (Fundación Vodafone España y Cruz Roja Española). Celia Roca.  CEO ITWILLBE, organización dedicada a la erradicación de la pobreza a través de ideas innovadoras y tecnología disruptiva.  Marta Colomina.  Directora General de la Fundación PwC Aplicaciones de la Inteligencia Artificial La IA es un instrumento clave para enfrentarnos a los grandes desafíos de nuestra era y debe dar resultados tangibles, claros y duraderos. Debemos promover la Inteligencia Artificial para que sea una prioridad y esté en la hoja de ruta de cada compañía. La inteligencia artificial tiene mucho por aportar. Alguno de los campos en los que tiene aplicación son: Aspectos medioambientales , proyectos que tengan alto impacto, visión pragmática y de futuro. Herencia cultural . Innovación usable por las personas de las ONGs que están en el terreno esforzándose en preservar la cultura. Especialmente relevante con la invasión rusa a Ucrania y las consecuentes migraciones. Cambio social y cultural. El consumidor cada vez pide más a las empresas que hagan algo. Como sociedad queremos trabajar para empresas que colaboren por un bien social. Tercer sector . Ayudar a los clientes a mejorar sus estrategias. Fortalecer los sistemas de prevención de desastres naturales como el cambio climático, la calidad del aire y los océanos; y de salud, como contagios por la COVID-19 y la vacunación. Prevención de la soledad gracias a herramientas como los asistentes de voz que han permitido dar compañía y facilitar el uso de herramientas digitales a personas en riesgo de soledad. ¿Por dónde empezar? Incorporar a las personas en su planificación. Las nuevas tecnologías, la IA, tienen que estar hechas por y para las personas y deben atender a las problemáticas diversas que existen en el mundo. Colaboración y sinergIA para el impacto . Unión de los diferentes sectores para que las iniciativas que se ponen en marcha tengan un impacto real y grande en los problemas que tratan resolver. Calidad, disponibilidad y privacidad de los datos. Cada dato tiene un valor dependiendo de la organización. Hay que sacar valor y hacer una buena gestión del dato. Incorporar a las administraciones públicas. Las empresas privadas han invertido tiempo en elaborar aplicaciones especializadas con IA para intentar aportar. Soluciones. Hace falta un cambio de mentalidad desde las administraciones públicas para enfrentarnos a los desafíos a nivel estratégico. Financiación tanto individual como colectiva, pública y privada. Visualiza el webinar  y/o  descarga el informe  si deseas ampliar los contenidos.  ¿Te ayudamos? Ponte en contacto con nosotros para profundizar en cualquier aspecto que consideres relevante y conocer más detalles en:  contacto@odiseia.org y es_hablemos@pwc.com

  • OdiseIA pasa a formar parte de INDESIA, coliderando junto a Microsoft y Telefónica los estudios para la adopción de la IA de manera responsable en el sector industrial.

    INDESIA es una asociación para impulsar el uso de los datos y la IA en empresas y PYMES de la industria española, liderada por Repsol, Gestamp, Navantia, Técnicas Reunidas, Telefónica, Inditex, Ferrovial, Microsoft y Airbus. Estas empresas decidieron crear esta asociación de ámbito nacional, aunque con convocación europea, con el objetivo de promover el desarrollo de las empresas en el ámbito de la digitalización y su transición hacia una cultura data driven . Por ello, diseñaron un proyecto tractor para escalar el uso de los datos y la inteligencia artificial a lo largo de toda la cadena de valor, definiendo un propósito para cada uno de los participantes; grandes empresas, PYMES, start-ups, proveedores tecnológicos e instituciones académicas. Su objetivo es desarrollar una nueva economía que genere crecimiento económico para España a través de la aceleración del uso de los datos y la Inteligencia Artificial por parte de las empresas y PYMES industriales. Alcance nacional Transversalidad industrial y accesibilidad Sostenibilidad medioambiental Ecosistema escalable Desde el I+D+i a la comercialización Capacitación y empleo STEM ¿Por qué ahora es necesaria INDESIA? El sector industrial en España se enfrenta a grandes retos, para los que va a necesitar incrementar la competitividad mediante la automatización y optimización de los procesos industriales, así como mejorar la sostenibilidad mediante la eficiencia energética, el desarrollo de nuevos materiales no contaminantes y el refuerzo de la economía circular. ¿Qué papel desempeñará OdiseIA? El objetivo es que OdiseIA aporte a las iniciativas de IndesIA un enfoque que permita garantizar la asimilación de la Inteliegncia Artificial de manera responsable, atendiendo a los principios éticos necesarios para su adopción y las normativas que están en curso. Como primera línea de trabajo, OdiseIA está trabajando junto a Microsoft y Telefónica en la elaboración de un documento de buenas prácticas para una IA responsable, alineado con la iniciativa GuIA de OdiseIA, que a su vez recoge las prácticas de estas dos compañías.

  • OdiseIA School imparte en abierto el curso Privacidad 360

    Un curso diseñado por Fabian Garcia Pastor, e impartido por expertos de OdiseIA como el propio Fabian, Lorenzo Cotino, Ignacio Gonzáles de los Reyes y Juan Manuel Belloto Gómez, donde se muestra cómo tratar la Privacidad en la Inteligencia Artificial con una visión 360. La OdiseIA School imparte formacionessobre Inteligencia Artificial y su uso responsable en empresas, administraciones públicas, escuelas de negocio, etc., contando para ello con los expertos de OdiseIA, quienes la abordan desde una perspectiva de negocio, tecnológica, ética y jurídica como es necesario para comprender todas las posibles aplicaciones prácticas y sus implicaciones de esta tecnología emergente. En este curso, con una versión reducida disponible de manera abierta en nuestro canal de Youtube ( https://www.youtube.com/watch?v=njkghAyc1d8 ), los expertos de OdiseIA Fabian García Pastor, Lorenzo Cotino, Ignacio Gonzáles de los Reyes y Juan Manuel Belloto Gómez, muestran cómo tratar la Privacidad en la Inteligencia Artificial con una visión 360, atendiendo a las perspectivas antes mencionadas. En él se descubren las claves para gestionar con éxito la privacidad en las organizaciones, tratando los siguientes contenidos: La esencia de la privacidad Los fundamentos de la protección de datos La privacidad, la inteligencia artificial y la ética Aspectos regulatorios clave La aplicación de la privacidad en varios sectores Las tecnologías PET ( Privacy Enhancing Technologies ) y los marcos para la gestión de la privacidad El impacto de la protección de datos en la IA y en la ética El enfoque de la privacidad que hacen Google, Microsoft, IBM y Telefónica La aplicación de la privacidad en varios sectores Este curso, en su versión extendida, está disponible para aquellas entidades que así lo deseen, atendiendo a sus necesidades particulares. Para ello pueden dirigirse a contacto @enrique-javier-benitez

  • OdiseIA imparte un programa formativo a miembros del Ministerio de Asuntos Económicos y Transformación Digital

    El programa, con 5 convocatorias de 20 horas de duración cada una, tuvo una valoración media de 8,8 sobre 10 por parte de los más de 100 asistentes. OdiseIA imparte formaciones sobre Inteligencia Artificial y su uso responsable en empresas, administraciones públicas, escuelas de negocio, etc., contando para ello con los expertos de OdiseIA, quienes la abordan desde una perspectiva holística atendiendo a dimensiones de negocio, tecnológica, ética y jurídica como es necesario para comprender todas las posibles aplicaciones prácticas y sus implicaciones de esta tecnología emergente. Desde el mes de Abril al de Julio de 2021 impartimos un programa formativo en el que compartimos el conocimiento de OdiseIA en Inteligencia Artificial con miembros del Ministerio de Asuntos Económicos y Transformación Digital (MINECO) , y de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) del gobierno de España. El programa, de 20 horas de duración, tuvo cinco convocatorias de unos 20 alumnos cada una. El contenido del programa proporcionaba una visión 360 sobre la Inteligencia Artificial , partiendo de los conceptos necesarios para entender la IA, continuando con los enfoques estratégicos en la Administración Pública tanto en España como en Europa, aterrizados mediante casos de uso concretos , pasando por la gestión de proyectos y llegando a las tecnologías inteligentes e incluso su integración con otra tecnología emergente como Blockchain . Por supuesto, alineado con la misión de OdiseIA, en todos los módulos abordamos los enfoques responsables y normativos imprescindibles en los planteamientos sobre Inteligencia Artificial, además de impartir módulos específicos sobre dichas dimensiones. Además, el programa terminó con una práctica grupal que permitió a los asistentes aplicar los conocimientos adquiridos. En esta aventura participaron once miembros de OdiseIA que tuvieron un desempeño sobresaliente, ya que los más de cien alumnos del MINECO y la SEDIA que lo cursaron otorgaron al programa una valoración media de 8,8 sobre 10. Diseño del programa: Juan Manuel Belloto Gómez y Adrián González Sánchez. Coordinación : Juan Manuel Belloto Gómez Instructores (por orden alfabético) Juan Manuel Belloto Gómez Enrique Javier Benítez Palma Richard Benjamins Lorenzo Cotino Hueso Juan de la Cruz Juan José Escribano Otero Ignacio Gonzalez de los Reyes Gavilán Adrián González Sánchez Idoia Salazar Paul Van Branteghem Mónica Villas Estos programas formativos impartidos por OdiseIA están disponibles para aquellas entidades que así lo deseen, atendiendo a sus necesidades particulares. Para ello pueden dirigirse a contacto@odiseia.org

  • Publicamos la Memoria de Actividades de 2021

    Acabamos de publicar nuestra Memoria de Actividades 2021. En ella podrás conocer mejor quiénes somos, qué actividad hemos desarrollado en 2021 y qué nos proponemos conseguir en este 2022 ya en curso. Acaba de ver la luz la Memoria de Actividades 2021 de OdiseIA. Aunque ya está algo avanzado el año actual, no hemos querido dejar de publicar este documento que recoge, en unas 50 páginas, los datos más importantes más importantes sobre nosotros y nuestra actividad en el año anterior. Contamos en qué consiste OdiseIA, sus objetivos y sus valores y también cómo estamos organizados. Resumimos cuáles han sido nuestros principales logros en el año 2021 incluyendo iniciativas tan importantes como el lanzamiento del Proyecto GuIA, la participación en los consorcios Indesia y Gaia-X, la realización de nuestra primera acción de formación externa con la SEDIA (Secretaría de Estado de Digitalización e Inteligencia Artificial) o el más que relevante crecimiento en socios tanto individuales como institucionales. Además, contamos, área a área, sus objetivos, la labor que han realizado en 2021 y lo que se proponen conseguir en 2022. Y cerramos con los principales retos para este año 2022: participación en el piloto de reglamento de la UE sobre Inteligencia Artificial, primeros entregables de GuIA o el lanzamiento de OdiseiA School y el Certificado OdiseIA. Pero quizá, lo que más nos satisface, es el caluroso ‘ feedback ’ de nuestros socios, privados e institucionales, con que abrimos el documento. A partir de ahora esperamos resumiros, cada año, lo que vamos haciendo y consiguiendo. Puedes encontrar el documento con la Memoria 2021 en este enlace y mucha más información, en nuestra página web: https://www.odiseia.org/ Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es Profesor, Director académico y mentor de proyectos en Escuela de Organización industrial y colaborador en otras escuelas de negocio. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y “Robots en la sombra” (Anaya Multimedia, 2021).

  • Anuncio de la creación del Centro Nacional de Neurotecnología en el evento de actualización de la ag

    Tras dos años de su puesta en marcha la Agenda España Digital ha sido actualizada para su adecuación al horizonte 2026 y su alineamiento con el Plan de Recuperación. Esta Agenda se erige como pilar estratégico de recuperación y como vector de modernización y prosperidad impactando tres dimensiones: infraestructuras y tecnología, economía y personas. La inversión del Estado a través del Plan de Recuperación y la Agenda España Digital tiene como finalidad impulsar el salto tecnológico en conectividad, ciberseguridad, Inteligencia Artificial y datos. Este gran proyecto de transformación digital incluye 8 planes específicos: el Plan para la Conectividad y las Infraestructuras Digitales de la sociedad, la economía y los territorios; la Estrategia de Impulso a la Tecnología 5G; la Estrategia Nacional de Inteligencia Artificial; el Plan Nacional de Competencias Digitales; el Plan de Digitalización de pymes; el Plan de Digitalización de las Administraciones Públicas; España Hub Audiovisual de Europa y el Plan Nacional de Ciberseguridad. Dentro de todas las novedades comunicadas en el evento del pasado 8 de julio, la Dirección del área “Bioética y Neuroética” de OdiseIA se hace eco del anuncio de Nadia Calviño, vicepresidenta del Gobierno y ministra de Asuntos Económicos y Transformación Digital, acerca del inicio del diálogo entre el Gobierno y la Comunidad de Madrid con el objetivo de materializar la creación del 𝗖𝗲𝗻𝘁𝗿𝗼 𝗡𝗮𝗰𝗶𝗼𝗻𝗮𝗹 𝗱𝗲 𝗡𝗲𝘂𝗿𝗼𝘁𝗲𝗰𝗻𝗼𝗹𝗼𝗴í𝗮. La Comunidad de Madrid ha presentado su candidatura para albergar la sede del nuevo proyecto 𝗦𝗽𝗮𝗶𝗻𝗡𝗲𝘂𝗿𝗼𝘁𝗲𝗰𝗵 , concretamente en el campus de la UAM (Universidad Autónoma de Madrid) junto al Parque Científico de Madrid y a otras reputadas entidades como son el Centro de Biología Molecular Severo Ochoa, IMDEA Nanociencia, el Instituto de Física Teórica, el Instituto de Ciencias Matemáticas o el Centro de Investigación en Ciencias de la Alimentación. El proyecto ha sido asesorado por prestigiosos expertos internacionales en la materia como científicos provenientes de universidades de Harvard , Columbia y Berkeley . Asimismo, se creará una red que interconectará a todas las universidades y centros punteros en neurotecnologías, que se llamará NeuroMadrid , como una apuesta a la ciencia de excelencia global. El objetivo es posicionar a España como un centro de referencia en Neurotecnología tanto en Europa como a nivel mundial. Estamos hablando de un proyecto que se convertirá en motor de atracción del talento internacional en este campo de conocimiento interdisciplinar. El pasado octubre la vicepresidenta primera, Nadia Calviño, expresó el interés por recoger propuestas sobre la aplicación de la Inteligencia Artificial en la neurotecnología que fomenten la investigación, la transmisión de conocimiento a la industria y la transferencia de los éxitos en beneficio de la sociedad. La Manifestación de Interés dirigida a agentes privados y públicos que incluía a empresas, a centros de investigación y a universidades, presentaba dos objetivos: Identificar acciones y desafíos ante el deseo de posicionar a España como un referente en Neurotecnología. Conocer las necesidades de los centros de investigación y del tejido empresarial para poder abordar dicha transformación. Las propuestas debían responder a cinco líneas de trabajo: Fomento de la investigación en el ámbito de la neurotecnología y la Inteligencia Artificial. Aplicación de los resultados para el beneficio de la sociedad. Transferencia de conocimiento. La generación de talento, atracción de talento internacional y retención de talento extranjero. Identificación y posterior desarrollo de soluciones para mitigar el impacto ético de las neurotecnologías. Esta acción permitirá seguir avanzando también en la  Estrategia Nacional de Inteligencia Artificial  (ENIA) en una prometedora industria con proyección exponencial.

  • Diálogos 360: Inteligencia Artificial y Justicia

    ¿Veremos en un futuro próximo una Justicia con una Inteligencia Artificial que tome decisiones? Conversación entre el juez Alfonso Peralta Gutiérrez y Fabián García Pastor en el marco de la iniciativa Diálogos 360 de OdiseIA. Se pasa revista a diversos aspectos relacionados con la llegada de la Inteligencia Artificial en la Justicia: la situación actual, las aplicaciones, el impacto social, el impacto ético, etc. #video

  • Diseño centrado en la humanidad + Inteligencia artificial (HAI)

    U n poco de historia y metodología. Uno de los objetivos que compartimos como seres humanos es encontrar sentido en todo lo que hacemos y somos, o por lo menos, intentarlo. Para ello procuramos reducir tensiones en nuestro día a día, mejorar nuestra calidad de vida y superarnos como especie. Al menos, ese es un rasgo que podemos identificar de nuestra programación original, que sin ser una pizarra en blanco está mediada (no determinada) por nuestra genética y más tarde por nuestra educación, entorno y por las tres fuerzas creadoras que nos impulsan y que ya vislumbró Aristóteles: ethos (instinto), pathos (pasión) y logos (razón). Lo que somos invariablemente se va a reproducir en las criaturas y en los proyectos que creamos. En el caso de la inteligencia artificial nos puede llevar a amplificarlo con distintos resultados: el temor, la vigilancia y el abuso o la utilidad, el beneficio mutuo y el servicio. En cualquier punto de la pirámide de necesidades de Maslow en el que nos encontremos, vamos a tener decisiones que tienen un impacto alrededor y que seguramente vayan a estar instrumentalizadas por una máquina, datos o por un algoritmo. A veces no hallamos respuestas y a veces nos equivocamos, pero solemos ser optimistas y trabajar duro en buscar salidas. Últimamente prestamos más atención no sólo hacia lo que tenemos al lado, sino también a lo que hay a cierta distancia. Incluso nos proyectamos hacia el futuro para poder calibrar mejor el presente y, los más conscientes, procuran tener en cuenta el pasado para eludir los bucles. Quiénes somos incluye la pregunta de quiénes fuimos y quiénes podemos llegar a ser. El Diseño centrado en la Humanidad crea un marco de referencia, a modo de brújula, para orientarnos en esta modernidad líquida. Nos invita a la indagación, a plantear preguntas incómodas y también poderosas que ayudan a superar obstáculos y crear experiencias positivas siempre partiendo de la comprensión de qué necesitamos y cómo nos relacionamos entre nosotros y los sistemas de los que formamos parte. Con esa interrelación en mente, descartamos conceptos como diseño centrado en los datos o diseño centrado en el planeta o la vida, ya que consideramos que el diseño, independientemente de su afán integrador y su nivel de consciencia aplicado, continúa siendo en esencia, una actividad humana. Ser quienes podemos o debemos ser Podría parecer que existe un abismo entre las profesiones de ciencias sociales y humanísticas, lo que en la Universidad de Standford denominan conocimiento “fuzzy” o difuso y los profesionales del ámbito STEM (conocimiento techie). Sin embargo, cada vez más se demuestra que esa contraposición o aislamiento de la una de la otra sólo puede llevar al desconocimiento y resultados incompletos. Hasta que no se dé colaboración real entre el enfoque humanista y el tecnológico no se podrá llegar a una solución de valor auténtica. O lo que es lo mismo, hasta que no nos enfoquemos en lo que nos une y a lo que aspiramos, en lugar de lo que nos divide, no podremos “salir de la caja” y desarrollar soluciones transformadoras. E s probable que cuando se escucha hablar de diseño centrado en la humanidad sólo se piensa en la cualidad ornamental o estética del diseño. Sin embargo, esta disciplina ha evolucionado durante el último siglo de manera que se ha orientado sobre todo a ser útil y beneficiosa para el ser humano, a resolver problemas complejos en nuestro mundo multi perspectivista donde todos los sistemas aparecen entrelazados e interdependientes cual red de redes. Es la figura del diseñador centrado en la humanidad con su visión estratégica y multidisciplinar (psicología, antropología, lingüística…), más las metodologías basadas en la solución creativa de problemas, quien ya está generando en las empresas espacios de sinergia, diálogo y ruptura de silos. A la vez va a ser quien pueda conducir conversaciones ricas que indaguen en esa pertinencia de ser quienes podemos o quienes debemos ser, a día de hoy, con base muy probable, aunque no única, en la inteligencia artificial. Un poco de historia del Diseño centrado en la Humanidad Para no remontarnos a la época de las cavernas, podemos partir de la Segunda Guerra Mundial. En este momento de conflagración bélica, se detectó cómo los cuadros de mando de los aviones eran demasiado complejos de entender y usar. Por aquel entonces, los ingenieros se dieron cuenta de que su foco había estado en conseguir unas máquinas precisas e imponentes, pero nadie se estaba ocupando de entender la psicología y las necesidades de los pilotos. Era importante que el diseño priorizara la usabilidad o la resolución de una tarea con eficacia y eficiencia. Nacía así la rama de “h uman factors”. En los años 50, el diseñador industrial Henry Dreifuss orienta su trabajo al “diseño para la gente” y nos recuerda cómo “hay que tener en cuenta que el objeto con el que se trabaja va a tener que ser mirado, activado, manejado o utilizado de alguna manera por las personas, individualmente o en masa. Si el punto de contacto entre el producto y las personas se convierte en un punto de fricción, el diseñador ha fracasado”. Raymond Loewy también se ocupó de introducir en sus creaciones cómo un producto nos puede llegar a hacer sentir, más allá de la pura referencia estética. Más tarde la pareja de arquitectos y diseñadores Charles and Ray Eames, aportaron un punto más integrador incluyendo en el diseño una visión más amplia como la cocreación, la relación entre una persona y una marca o su impacto en el entorno. El Premio Nobel Herbert A. Simon se centró en los años 70 en los conceptos de prototipado rápido y de la prueba a través de la observación y Don Norman nos introduce en el diseño centrado en el usuario como marco de trabajo, investigación y desarrollo del diseño de interfaces de usuario basándose en un modelo conceptual, la interfaz y el modelo mental de las personas. También en los años 80-90 diferentes autores profundizan en el design thinking o pensamiento de diseño. Richard Buchanan, filósofo y profesor de diseño, argumentaba que el diseño de interacción no se detiene en una pantalla del ordenador, sino que se extiende a la vida personal y social de los seres humanos. Del interés en la creación de productos con foco en lo humano, evolucionaron hacia desafíos mucho más complejos como la intervención en programas de erradicación de pobreza, cambio climático, educación o diseño de servicios innovadores. A toda esta riqueza del diseño se unió el trabajo de Donella Meadows quien estudió la complejidad de los sistemas dinámicos y sobre todo, la consultora de Diseño Ideo, quien con los hermanos Kelley la Universidad de Standford extendió el proceso de pensamiento de diseño con sus fases y aplicaciones a compañías e instituciones del mundo grandes y pequeñas. A ctualmente las líneas de trabajo e investigación refuerzan cómo la experiencia de uso y nuestra percepción como humanos va a ser lo que garantice que un proyecto de IA tenga éxito o mayor o menor adopción, más allá de las técnicas de machine learning o el número y la calidad de los datos procesados. Gavin Lew, por ejemplo, ha explorado las relaciones entre IA y UX, cómo es fundamental partir de una propuesta de valor clara y hacer cercana y comprensible la IA a las personas, evitando las trampas que puede haber en los datos y marcando la diferencia entre productos y servicios u otros. Además, si combinamos ética y practicidad podremos impulsar una visión de futuro que marque límites claros y potencie la dignidad humana a partir de la creatividad. Ben Schneiderman, una de las principales eminencias en interacción persona ordenador y visualización de datos, propone un marco de trabajo o framework que incide en los principios de “Human Centered AI”. S obre tecno personas y nuevas nociones de humanidad Ya en el siglo pasado dentro de las corrientes de pensamiento político y social se habla de que el postmodernismo ha sustituido al modernismo y se enfatiza mucho en cómo han variado las relaciones de poder, cómo lo digital afecta a la subjetividad y la representación del mundo del individuo, Y en ese contexto se empieza a repensar QUÉ ES REALMENTE UN HUMANO HOY EN DÍA y cómo ha evolucionado en su relación con la tecnología. La filósofa Donna Haraway con su manifiesto cyborg en 1985 ya consideraba que la noción de humano quedaba obsoleta. Más recientemente, otra filósofa, Rosi Braidotti habla de que no podemos hacer referencia al concepto de HUMANO, por tratarse de una nomenclatura desfasada por el mal uso que se ha dado. Desde la época griega, con Protágoras, se ha considerado al humano como centro de todas las cosas. Pero según Braidotti, si analizamos esa noción de humano en el fondo es muy excluyente, por su preponderancia fundamental hacia la cosmovisión occidental u occidental centrismo. Digamos que actualmente nos encontramos en un proceso de definición de quiénes somos como especie. Rosi Braidotti habla de Posthumanos y el filósofo Javier Echeverría trabaja sobre el concepto de tecnopersona partir del análisis: ¿qué sucede cuando las tecnologías que usamos están tan integradas en nuestra vida que afectan a lo que se considera humano? Los avances tecnológicos también presuponen líneas rojas. Cada vez más se aúnan las voces e intereses en definir como sociedad multidisciplinar la inclusión de nuestros derechos fundamentales en los nuevos contextos digitales donde cada vez más se habla de difuminar la frontera humano/máquina, sin saber muy bien si eso es realmente lo que desean la mayoría de las personas. Nos redefinimos constantemente. No hay nada más allá del cambio como diría el Tao o como suscribiría Heráclito. ¿Qué sucede ahora? Es probable que el factor velocidad exponencial nos haya hecho un poco más difícil mantener nuestro eje como individuos, o saber realmente cómo seguir siendo humanos con esa capacidad que subrayaban H. Dreyfus y S. Dreyfus de deliberar, de no atenerse a reglas que puedan ser expresadas en lenguaje algorítmico, o la integración más que el análisis, “en una consideración holística del problema a tratar en función de su experiencia, su biografía, su memoria corporal, su intuición, su personalidad, movilizando todos los recursos vitales que tenga a su alcance” E l rol del diseño estratégico en proyectos vinculados con IA Como diseñadores centrados en esa visión de humanidad integradora y ampliada, tenemos el papel de generar conversaciones y conectar diferentes antecedentes, experiencias vitales, necesidades, percepciones no sólo de los perfiles que participan en un proyecto (técnicos, negocio, marketing, legal) sino de hacer de observador situando en el centro las necesidades de la humanidad ecléctica, los sistemas en los que está inmersa, los problemas complejos y las interdependencias ,retroalimentaciones e interacciones casuales considerando también el contexto local y global, repercusiones a medio y largo plazo y el impacto en el ecosistema. Siempre hemos valorado conceptos como tener en cuenta la consistencia, escalabilidad, la reducción de incertidumbre y carga cognitiva, la accesibilidad, la facilidad de aprendizaje y uso… ahora incorporamos el uso ético de los productos y servicios digitales, privacidad, sostenibilidad, o cómo pueden afectar nuestras decisiones a las nuevas generaciones. La tecnología ha favorecido que nuestra relación con el medio se haya constreñido y ampliado al mismo tiempo. El proceso y el método crecen pero son las mismas bases en las que la empatía, el extrañamiento, la participación, la colaboración y la comunicación mantienen su validez. T ransformación digital y D esign danish ladder Empresas de toda índole llevan años incorporando en sus metodologías los procesos creativos de resolución de problemas. Como diría el Dr. Prabhjot Singh, director de diseño de sistemas del Earth Institute, “pensamos mucho tiempo diseñando el puente, pero no el suficiente pensando en las personas que lo cruzan”. El nivel de familiaridad y aplicación de estas estas metodologías está bien descrito en la Design danish ladder. Para poder trabajar en procesos de diseño que integran tecnologías exponenciales como la inteligencia artificial, las empresas tendrían que situarse entre el escalón 3 y 4 e idealmente, llevar años en el último, con el fin de disponer de todos los roles y cultura para empujar sinergias. Tanto el design thinking como el diseño participativo o la ingeniería de diseño centrada en el ser humano van a permitir crear los contextos de trabajo donde confluyan: Inquietudes éticas respecto a regulación, bien común, límites, reputación, privacidad, seguridad, transparencia, rendición de cuentas y explicabilidad de los algoritmos… – Valores, intereses y relaciones entre sistemas interdependientes (negocio, tecnología, sociedad…). Falacias, prejuicios y sesgos cognitivos. Comunicación, gestión del cambio y análisis de comportamiento para ayudar a tomar decisiones. Relaciones entre personas a lo largo de la cadena de valor (clientes, empleados, proveedores, socios, inversores, resto de la comunidad). Respeto por la diversidad, diferencia (accesibilidad, inclusividad, etc.) y espacios existenciales (culturales, generacionales, sociales, religiosos, económicos, políticos…). Reflexión acerca de externalidades e impacto ambiental. Potencialidad y barreras de dispositivos e interfaces. Narrativas asociadas y visualización de la información… En este contexto partimos de la visión de un presente y futuro donde la tecnología vaya alineada con la experiencia humana. Rosi Braidotti incluso recuerda que cada vez más tenemos que demostrar nuestra humanidad, como con los captchas, lo que sería indicativo de que “en el centro ya no está lo humano, sino la cultura algorítmica de las redes computacionales”. Como facilitadores de procesos en los que interviene la tecnología y el ser humano, los diseñadores, área de data, patrocinadores y otros stakeholders, tendrían la responsabilidad de participar en el proceso, diseñar una hoja de ruta con workshops, hitos, dependencias, entregables, etc y comenzar planteando preguntas similares a: ¿De qué forma podemos asegurar un uso relevante y responsable de las posibilidades que ofrece la IA? ¿Qué tenemos que adaptar para que equipos multidisciplinares trabajen codo a codo? ¿Cómo se pueden diseñar experiencias, productos y servicios en un contexto donde intervienen múltiples factores a veces inabarcables? A plicación de los procesos de diseño centrados en el ser humano en proyectos de IA Una vez configurado el equipo multidisciplinar del proyecto y sentadas las bases de agendas y recursos se podría dividir en las siguientes fases: 1 . Fase inicial de exploración y mapeo del contexto A la hora de abordar un proyecto en el que es probable que intervenga la IA debemos revisar nuestro reto, saber cuál es realmente el caso que queremos tratar, desde qué prisma, para qué y con qué objetivo final. Es crucial también analizar si para el reto, las técnicas de IA pueden ser o no beneficiosas, si existen datos relevantes y suficientes, su estado, si son representativos, grado de etiquetado y estructuración, cumplimiento normativo, incluso si la organización tiene capacidad suficiente o se tiene que aliar con algún otro actor. En este punto se analizan mejores prácticas de casos similares, todos los riesgos y oportunidades del proyecto, con frameworks muy ligados a la ética, la gestión del cambio y se orienta la investigación cualitativa con diferentes técnicas a conocer audiencias y personas involucradas, sus expectativas, temores y actitud hacia el uso de datos. 2 . Definición del reto e ideación A partir de los hallazgos encontrados durante la investigación exploratoria o generativa en los que se aplican técnicas de análisis y síntesis, se ve desde qué ángulo enfocar mejor el reto y se fijan las métricas más adecuadas a los intereses del proyecto. Es el momento de identificar posibles recurrencias de patrones, límites y líneas de actuación para mitigar posibles daños. Suele suceder que, con un enfoque puramente técnico, los modelos funcionan muy bien en los laboratorios, pero al implementarlo en contextos reales hay múltiples factores que, si no se consideran, pueden invalidar los beneficios esperados. Como diría Edward Deming, “un sistema no puede explicarse a sí mismo” y es necesario comprender factores internos y externos de las personas. Con la comprensión más clara de la situación, datos disponibles, posibles impactos, etc. se generan y priorizan ideas y se aplica un checklist de ética para tener identificado, por ejemplo, si los datos si se van a compartir con terceros u otras organizaciones, qué estilo de comunicación se va a usar para trasladar las ventajas a los destinatarios, cómo se va a hacer para comprometer a los implicados. También se decidirá si hay que añadir alguna medida de gestión de cambio complementaria, qué nivel de automatización y control humano va a ser necesario, cómo se va a medir el impacto que pueden tener un error en el modelo y posibles sesgos, qué nivel de precisión y de comprensión o explicabilidad del modelo se espera. Ya que no sería lo mismo un sistema que te recomienda series o música que otro que va a decidir la probabilidad de incidencia de una persona a la hora de cometer un delito, o un sistema que decida qué tratamiento médico es el más adecuado para un paciente. En estos casos, conviene definir cómo se va a gestionar la responsabilidad con los posibles errores del sistema. A partir de aquí se pueden diseñar journeys y/o blueprints con los diferentes casos de uso de cara a tener en cuenta todo lo anterior y avanzar en la tarea con la identificación de artefactos que pueden ser tan variados como: una aplicación digital, un servicio de atención al paciente, elementos de comunicación, etc. En paralelo se trabajarán todas las tareas propias de los equipos específicos. Por ejemplo, el área de data analizaría qué algoritmos son los más indicados, niveles posibles de predicción, propensión, etc. 3 . Prototipado, construcción y evaluación En este punto el equipo técnico estaría dedicado a desarrollar y validar su modelo de datos y el equipo de diseño a prototipar la interfaz y artefactos identificados donde se incluye cómo es el proceso de contar beneficios de la herramienta, cómo se podría dar de alta y baja del servicio, cómo va a ser la experiencia de uso, cuáles van a ser las métricas para mostrar la confianza en las predicciones del algoritmo, cómo la IA va a entender las intenciones del usuario, qué narrativa es la más adecuada para conectar con las personas y transmitir los valores de la organización, cómo se van a visualizar los datos… Para finalizar, se diseñará un plan de evaluación y análisis y se probará el prototipo con el fin de obtener feedback de usuarios e iterar para tener en cuenta todos los sistemas donde está inmersa la persona: creencias limitantes, nivel cultural, contexto socioeconómico, estado emocional, edad, cómo es la fuerza de la privacidad diseñada, cómo se trasladan las previsiones, grado de fiabilidad y explicabilidad del modelo. Tras la puesta en marcha de piloto se llevarán a cabo acciones de formación, comunicación y gestión del cambio y se hará un seguimiento continuo del modelo por si fuera necesario realizar cualquier ajuste. La opinión y grado de satisfacción y uso de las personas implicadas en el uso de la herramienta va a servir para garantizar su satisfacción y al mismo tiempo para mejorar el comportamiento del modelo y de la interfaz, medir el impacto y garantizar que se han cumplido los objetivos previstos. E ngrasando la maquinaria Tanto Microsoft, como Google o IBM son referentes para diseñadores y equipos deseosos de integrar la metodología de diseño centrado en lo humano con inteligencia artificial. Sus herramientas y prácticas contribuyen a que cada organización adapte el proceso a su medida y a su nivel de madurez. El mundo va súper acelerado y tener como faro la perspectiva antropológica y social de Amber Case, Adam Alter y Marc Masip con su “calm technology” también nos sirve de sostén para diseñar soluciones de IA éticas. La IA presenta la posibilidad de cambios mucho más radicales a los que nos hemos enfrentado hasta ahora con internet, los móviles o las redes sociales: cambios en cómo trabajamos, cómo interactuamos entre nosotros, cómo tomamos decisiones, a quién cedemos el principio de autoridad, qué opinión nos merece el tratamiento de nuestros datos, cómo balanceamos privacidad, libertad y seguridad, qué sucede con las emociones y la conciencia de las máquinas, si defendemos o no el principio de autodeterminación digital… Para que todos, ya nos consideremos posthumanos, tecno personas o simplemente humanos con deseo de contribuir a un mundo más justo, nos podamos beneficiar, tenemos que asegurarnos de que la IA trabaje a n uestro f avor y no en nuestra contra; tenemos que pensar éticamente sobre los sistemas que estamos construyendo y para eso hace falta tener un marco humanista,, un contexto de reflexión y trabajo colaborativo que aúne pensamiento sistémico, filosófico, ingeniería y técnica, antropología, sociología… y ese marco humanista y resolutivo lo proporciona el diseño centrado en la humanidad. María José Téllez- Agosto 2022 Fuentes https://hcil.umd.edu/human-centered-ai/ https://www.tensorflow.org/resources/responsible-ai https://www.ibm.com/design/thinking/page/courses/AI_Essentials https://link.springer.com/chapter/10.1007/978-1-4842-5775-3_5 https://www.trea.es/books/tecnopersonas-como-las-tecnologias-nos-transforman1 https://www.gedisa.com/autor.aspx?codaut=0889 https://re.public.polimi.it/retrieve/handle/11311/1101203/562341/The%20impact%20of%20AI%20on%20DT_last.pdf – https://mjtellez.medium.com/estado-del-arte-de-la-%C3%A9tica-y-la-inteligencia-artificial-b16f0e44153b – (https://www.amazon.es/Mind-over-Machine-Intuition-Expertise/dp/0029080614)

  • Intervención de Idoia Salazar y Richard Benjamins en las Cortes de Aragón

    Intervención de Idoia Salazar y Richard Benjamins en las Cortes de Aragón, en las Audiencias Legislativas de la Comisión de Ciencia, Universidad y Sociedad del Conocimiento, dentro del proceso legislativo de tramitación del  PROYECTO DE LEY DE MEDIDAS PARA LA IMPLANTACIÓN Y DESARROLLO EN ARAGÓN DE TECNOLOGÍAS EN LA NUBE (CLOUD COMPUTING). Intervención de Idoia Salazar y Richard Benjamins (minutos 42:30 hasta 52:10): Los representantes de OdiseIA , Observatorio Del Impacto Social y Ético de la Inteligencia Artificial, destacaron los siguientes aspectos del Proyecto de Ley: a) El énfasis puesto en la protección de datos (artículo 13, puntos f y g). b) la necesidad de construir “confianza digital” (artículo 34). c) La importancia de la sostenibilidad, dado que la nube tiene su propia huella de carbono. En este sentido, recomendaron vigilar que los proveedores tengan una estrategia sostenible, alineada con los principios ESG, a la hora de realizar las contrataciones de estos suministros. Acceso a la web de las Cortes de Aragón y al texto del Proyecto de Ley: https://ecomisiones.cortesaragon.es/index.php?option=com_content&view=article&id=5030:x-legislatura-ciencia-universidad-y-sociedad-del-conocimiento-proyectos-de-ley-proyecto-de-ley-de-medidas-para-la-implantacion-y-desarrollo-en-aragon-de-tecnologias-en-la-nube-cloud-computing&catid=468:ciencia-universidad-y-sociedad-del-conocimiento-docu&Itemid=177

bottom of page