
Search Results
44 resultados encontrados
- Idoia Salazar inaugura la jornada para visibilizar a mujeres referentes en el ámbito STEAM
Coincidiendo con el Día Internacional de Ada Lovelace, la primera programadora de la historia, 42Madrid, el campus gratuito de programación más innovador del mundo impulsado por Fundación Telefónica, y la mayor red de mujeres profesionales y emprendedoras de habla hispana, Womenalia, han organizado una jornada para visibilizar a mujeres referentes en el ámbito STEAM, impulsar la vocación de estas en el ámbito de la programación y contribuir a romper la brecha digital de género. Idoia Salazar, presidenta y co-fundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), ha sido la responsable de inaugurar la sesión con una charla sobre la importancia del papel de la mujer en la implantación positiva y ética de la Inteligencia Artificial , y las consecuencias de la falta de mujeres en la programación en general y la programación de algoritmos en particular. Enlace a la noticia: https://www.eleconomista.es/ecoaula/noticias/11986570/10/22/Fundacion-Telefonica-y-Womenalia-impulsan-la-vocacion-de-las-mujeres-por-la-programacion.html
- Racismo, ‘deepfakes’ y opacidad: la ética de la IA, a debate
Desarrollar modelos entrenados con datos racistas o sexistas, utilizar datos de personas fallecidas para crear vídeos falsos y tomar decisiones basadas en los criterios de un algoritmo. La presidenta de OdiseaIA, Idoia Salazar, y la fundadora de The Ethical Tech Society, Lorena Jaume-Palasí, debaten sobre los riesgos de la IA y la forma de abordarlos en el cuarto episodio del pódcast ‘Constante Futuro’ Predecir proteínas para descubrir nuevos fármacos , vaticinar la lluvia o anticipar fallos en la cadena de suministro . Pese a las aplicaciones útiles de la inteligencia artificial (IA), las lagunas de privacidad o la perpetuación de comportamientos racistas, machistas o colonialistas debido al origen de los datos que se emplean para entrenar a los algoritmos son preocupantes. Para abordar esos desafíos éticos, la Unión Europea ha presentado un reglamento que propone multar a las empresas que desarrollen sistemas de IA dañinos, una norma que puede definir las bases para regular esta tecnología en todo el mundo. Más allá de la regulación, algunos expertos ya están reflexionando sobre las implicaciones éticas de la IA y la forma de enfrentarse a ellas. Idoia Salazar , fundadora del Observatorio Social y Ético de la IA (OdiseIA), colaboradora de la Secretaría de Estado de digitalización e Inteligencia Artificial de España y miembro del equipo de expertos en IA del Parlamento Europeo, y Lorena Jaume-Palasí , fundadora de The Ethical Tech Society , una organización que investiga las implicaciones sociales de los procesos de automatización y miembro del panel de Evaluación de Opciones Científicas y Tecnológicas de la Unión Europea, han debatido sobre las luces y las sombras de la inteligencia artificial en el cuarto episodio del pódcast Constante Futuro , que puedes escuchar en Spotify , Ivoox y Apple Podcasts . Uno de los problemas de la inteligencia artificial más conocidos es la discriminación. Un caso real fue el de COMPAS , un sistema utilizado por la justicia penal de EE UU con sesgos hacia los acusados afroamericanos . Los propios modelos de inteligencia artificial que generan textos automáticamente analizan datos de internet , entre ellos contenidos tóxicos y desinformación , que pueden replicar después. ¿Cuáles son los principales riesgos de que un algoritmo tenga prejuicios? Idoia: Sabemos que estos sistemas de IA necesitan muchísimos datos para su entrenamiento. La mayor parte de las veces son datos históricos de empresas donde ha habido casos de discriminación hacia mujeres o hacia razas específicas. Casos como el de COMPAS son un problema porque maximizan estos prejuicios sociales que han existido desde siempre. Pero a mí me gusta ver también el lado positivo de la situación que vivimos con el desarrollo de la IA: cada vez tenemos mayor consciencia sobre el problema de los sesgos. Existen herramientas para quitar estas variables de sexo, raza u otras para intentar entrenar de una manera más objetiva al algoritmo . Por otro lado, también se toma consciencia de esa necesidad de no dejar que sea el algoritmo el que tome la decisión final en casos en las que haya implicaciones humanas. Lorena: Yo soy un poco más escéptica, porque la semántica de sesgo le quita gravedad y distrae el debate de la discriminación. Ya no estamos hablando de racismo o de sexismo, sino que hablamos de sesgo, como si fuese un tema estadístico. Los sistemas algorítmicos tienen un pensamiento muy europeo y antiguo. Hacemos sistemas algorítmicos basados en una aproximación de reglas exactas estandarizadas. Y cuando se crean estándares, se crean cajones, y este tipo de sistemas tienden a discriminar. La revista ProPublica descubrió hace unos años que COMPAS estaba utilizando datos históricos y, con ello, discriminando o siendo racista con las personas negras en el sistema penitenciario norteamericano. Se siguen utilizando métodos como los que ha descrito Idoia para eliminar la clasificación racial o eliminar cualquier tipo de discriminación en este tipo de sistemas, lo cual es imposible porque ya sabemos que se puede inferir el género o la raza con las que se clasifica a una persona con otro tipo de datos. En la Guía de Buenas Prácticas de Impacto social y ética del Observatorio de Impacto Social de la IA del que forma parte Idoia, se comparan las competencias de la IA con las de los seres humanos o empresas. Y aquí me surge una pregunta, si los propios seres humanos ya fallamos en esas cuestiones y lo vemos constantemente. ¿Cómo podemos asegurar que los algoritmos no tienen esos sesgos si directamente están creados por seres humanos que ya los tienen? I: La cuestión es ver a estos sistemas de IA como lo que son, por muchas peculiares que tengan similares a los seres humanos, son herramientas que nos ayudan a lidiar con la cantidad de datos que tenemos a nuestro alrededor. Yo cada vez estoy más convencida que debiéramos desechar del concepto de toma de decisiones y decir solamente recomendaciones o conclusiones. Porque la decisión final la tiene que tomar la persona que es la capaz aplicar un contexto. Aun así, los profesionales deben formarse en IA para poder aprovechar las ventajas de este sistema. Hay una falta de formación muy clara. Foto: Idoia Salazar, presidenta de OdiseIA, y Lorena Jaume-Palasí, fundadora de The Ethical Tech Society. Crédito: cortesía de las entrevistadas La Comisión Europea presentó hace unos meses una propuesta de marco legal pionero para la inteligencia artificial que actualmente está en trámite. Entre otros muchos aspectos, pretende que esta tecnología sea más explicable y transparente. ¿Cómo se puede lograr esa transparencia? L : La transparencia en los sistemas de inteligencia artificial es una cortina de humo, como lo es el cambio de semántica cuando no hablamos de discriminación o de racismo sino de sesgos. Forma parte de este problema del solucionismo tecnológico: si cambiamos la fórmula matemática, lo solucionamos. Esa cortina de humo en la transparencia me parece bastante problemática porque lo que vemos en la tradición legal europea es que, con la transparencia, en muchos casos, se transfiere la responsabilidad allá dónde no toca, de la empresa al consumidor. I: En la declaración que hizo la UNESCO de los principios éticos de la IA, se está intentando materializar esa transparencia para que todo aquel que use un sistema de IA sepa de qué manera ha llegado a la toma de decisiones, los datos que ha usado y su metodología para que las personas entiendan cómo se llega a esa toma de decisiones. Creo que es importante que empecemos a hacer una labor de divulgación porque la sociedad debe ser partícipe de las decisiones al respecto de la IA. Además de la transparencia, en la propuesta de la Comisión Europea se están planteando de los algoritmos en cuatro niveles de riesgo , con obligaciones asociadas para los fabricantes. Hablamos de riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo. Me recuerda un poco al debate que se planteó durante la regulación de la privacidad en Europa. ¿Cómo esta norma puede obstaculizar la innovación como han sugerido ya algunos expertos? L : No creo que las categorías de la UE obstaculicen la innovación. Esta regulación se basa en el artículo 114 de los tratados fundamentales que tenemos en la UE, es decir, es derecho mercantil. No estamos en una disciplina de derechos constitucionales. El riesgo es multidimensional y este tipo de categorizaciones que se hacen son muy simplistas porque no se especifica qué tipo de riesgo. Por otro lado, creer que se puede decir ex ante cuánto riesgo tiene un sistema es también irónico y demuestra la mirada cosmética de este tipo de regulación. I: Creo que la UE tiene claro que hay que impulsar los sistemas de IA. Para ello, quiere aumentar la confianza de los consumidores y no regular la tecnología en sí misma sino estos casos concretos. No solamente analizando los casos de uso que ya hemos tenido con la implementación de sistemas de IA en diferentes productos y situaciones sobre casos reales, sino intentar prever de qué manera va a seguir esta evolución en los distintos sectores y la distinta casuística que se está planteando. ¿Qué si va a ser difícil y en la regulación vamos a tener más problemas para incentivar el uso de la IA? Todo esto se está trabajando en el sandbox que está desarrollando el Gobierno de España en el que se va a intentar dotar de herramientas sobre todo a las pymes para que se produzcan todos los procesos de adecuación al reglamento de IA de una manera lo más ágil posible. El gran riesgo que tenemos aquí es que las pymes y las startups sean capaces de adecuarse, pero se está trabajando en eso. Algunos de los resultados de los algoritmos suscitan controversia. Es el caso de los ‘deepfakes’, imágenes, vídeos y audios ultrarrealistas que pueden imitar a personas vivas e incluso a fallecidas . Aunque la Unión Europea considera que tienen riesgo limitado, ¿es ético utilizar la cara, los gestos y la voz de otra persona, en especial si ya no está ? L : Las personas que han fallecido dejan de tener esa protección con sus datos. Es legal. Y lo legal es una forma de fijar lo que creemos que es ético o aceptable en una sociedad. Sin embargo, a nivel técnico, se tiene que decir que se pretende replicar a una persona, pero no se está replicando a una persona; se está extrapolando lo que esa persona era en base a determinados modelos . Es como hacer títeres de gente fallecida y a mí me parece una falta de respecto teniendo en cuenta la cultura que tenemos con las personas fallecidas. Gracias a los avances de la inteligencia artificial, estamos preguntándonos qué es la inteligencia o la conciencia, e incluso se ha puesto de nuevo sobre la mesa una disciplina tan antigua como la ética. ¿Nos está ayudando la tecnología a replantearnos nuestros propios valores? I: Sí. Hacía mucho que no se hablaba tanto de ética y cuestiones filosóficas. Debemos pararnos a pensar en ese tipo de cuestiones como qué es el ser humano, hacia dónde queremos ir como humanidad, qué es la privacidad u otras cuestiones que nos ayudan a ser más conscientes de muchas de las acciones para que tomemos la decisión correcta. L: El problema que tenemos con la IA y las consecuencias negativas que esta tecnología tiene no es por la tecnología en sí en sí, sino por el pensamiento con el que hacemos ese tipo de tecnología. Ese pensamiento es profundamente racista y colonialista . Por ello, yo no diría que en general la tecnología nos está haciendo repensar cómo utilizamos las cosas, depende de dónde esté cada uno y el contexto donde uno esté. por Editores de MIT Technology Review en español https://www.technologyreview.es/podcast/constante-futuro/racismo-deepfakes-y-opacidad-la-etica-de-la-ia-debate
- OdiseIA presenta el primer informe GuIA, una iniciativa para saber cómo adoptar la Inteligencia Arti
OdiseIA, PwC, Google, Microsoft, IBM y Telefónica, con la presencia de Carme Artigas (SEDIA), presentan una guía para adoptar la Inteligencia Artificial de manera responsable. Es el primer resultado de GuIA, una iniciativa de OdiseIA, a la que se están uniendo más de 50 empresas de 10 sectores diferentes. Al final de este post está disponible el enlace para poder descargar el documento , así como el vídeo con la grabación del evento de presentación. El evento contó con la presencia de Carme Artigas, la Secretaria de Estado de Digitalización e Inteligencia Artificial del Gobierno de España Su presencia pone de manifiesto el proceso de modernización en el que se encuentra nuestra sociedad, y el apoyo realizado desde las instituciones públicas para que se lleve a cabo. En la clausura del evento, Carme Artigas remarcó como “ La IA nos presenta un nuevo escenario lleno de grandes incertidumbres que abordaremos desde una firme vocación ética y humanista .” La Inteligencia Artificial y la necesidad de la ética La Inteligencia Artificial (IA) ya está presente en nuestras vidas: cuando compramos por Internet, cuando nos recomiendan películas o canciones, cuando traducimos automáticamente un texto, o cuando hablamos con nuestros dispositivos. Pero también hace predicciones o participa de decisionesque tienen un impacto importante en nuestras vidas, como cuando queremos contratar un producto financiero o un seguro, nos hacen un diagnóstico médico, y un largo etcétera que irá aumentando en los próximos años, “ Pero la IA puede tener consecuencias poco deseables. Por ejemplo, la perpetuación de estereotipos o malas prácticas sociales, como la discriminación de minorías, razas o géneros. También la opacidad de algunos de sus algoritmos, o la excesiva autonomía dada a estos sistemas. Por estos motivos es necesario el desarrollo de la ética asociada a la IA ”,tal y comoindicó Idoia Salazar , presidenta de OdiseIA, el Observatorio Del Impacto Social y Ético de la Inteligencia Artificial. Lo hizo al inicio del evento celebrado este jueves 17 de febrero, en un formato híbrido ( online y presencialmente desde la escuela de negocios ISDI en Madrid), donde se presentó el primer resultado de la iniciativa GuIA. El nacimiento de GuIA En noviembre de 2020, OdiseIA lanzó públicamente la iniciativa GuIA con el apoyo de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA). En aquel evento también participaron Google, Microsoft, IBM y Telefónica, y todos los intervinientes consensuaron la necesidad de aterrizar los conceptos éticos que envuelven a la Inteligencia Artificial. La importancia de cubrir el espacio vacío que existe entre las declaraciones de principios globales que sirvieron hace unos años para arrancar las reflexiones éticas en la IA, y la realidad aterrizada en casos de negocio concretos. Resuelta además a través de tecnologías específicamente diseñadas para ello. Y este es el objetivo de GuIA : establecer un ecosistema colaborativo donde las empresas puedan consultar y aportar su experiencia aterrizada en la adopción de la Inteligencia Artificial atendiendo a buenas prácticas tanto en el plano ético como en el normativo . De la responsabilidad a la obligatoriedad Desde la presentación de GuIA han ocurrido hechos importantes que han remarcado la necesidad del objetivo de esta iniciativa. En diciembre de 2020, la Secretaría de Estado de Digitalización e Inteligencia Artificial ( SEDIA ) publicó la Estrategia Nacional de Inteligencia Artificial (ENIA), dedicando por entero uno de sus seis ejes a la necesidad de una Inteligencia Artificial ética y normativa. En noviembre de 2021, la UNESCO publicó un informe sobre la ética de la Inteligencia Artificial donde se instaba a la creación de políticas y marcos normativos para asegurar que estas tecnologías emergentes benefician a la humanidad en su conjunto. De hecho, en abril de 2021, la Comisión Europea presentó su propuesta para un marco regulatorio de la UE sobre el uso de la inteligencia artificial ( AI Act ). El proyecto de ley pretende establecer una regulación horizontal sobre la IA y, una vez aprobada, todas las empresas deberán ajustarse a ella en menos de dos años. Por tanto, más allá de la responsabilidad proactiva de las empresas en adoptar la IA de manera ética y responsable (algo que es necesario), ya se vislumbra la necesidad de estar preparados para cuando entren en vigor las obligaciones marcadas por la ley. A este respecto, iniciativas como GuIA pueden ayudar a las empresas a conseguirlo. Una primera guía elaborada por más de treinta expertos Este primer informe GuIA que ha sido presentado el jueves 17 de febrero, es el primer resultado de dicha iniciativa. Tiene más de doscientas páginas y ha sido elaborado por un equipo multidisciplinar de más de treinta personas formado por tecnólogos y juristas de OdiseIA y PwC, junto a expertos de Google, Microsoft, IBM y Telefónica. Incluye un detallado estudio de los principios éticos que aplican a la IA, realizado a partir del análisis de treinta iniciativas de todo el mundo, al que se ha agregado un análisis jurídico de dichos principios. Por último, y con su contante vocación de aterrizar estos conceptos , se incluyen las tecnologías, herramientas y recomendaciones de Google, Microsoft e IBM que permiten su gestión, así como la experiencia de Telefónica en este ámbito. En el evento se presentaron las principales conclusiones, así como los próximos pasos de la iniciativa. Todo en varias mesas redondas dirigidas por Mar Cabra , Periodista ganadora del premio Pulitzer y co-fundadora de OdiseIA. Para Juan Manuel Belloto, director de OdiseIA responsable de la iniciativa GuIA, “Las empresas, al igual que tienen políticas de comportamiento para sus empleados, tienen la responsabilidad de que su IA esté desarrollada bajo principios éticos. Al igual que en la sociedad, a la ética es necesario acompañarla de legislación. Y por primera vez la legislación no se está dejando esperar, un claro síntoma de su importancia en la IA. Otro síntoma de la importancia de este reto es ver como empresas con muchos negocios solapados se unen en GuIA para abordar este reto de forma conjunta.” De igual manera Armando Martínez Polo , socio de PwC España remarcó que “ El uso ético y responsable de la Inteligencia Artificial es una obligación para cualquier compañía, y en los próximos años, con la aplicación de regulación específica no existirá la posibilidad de no prestar atención a este tema. La aportación de GuIA creemos que es fundamental para generar comunidad, y articular un espacio en el que entre todos contribuyamos desde diferentes puntos de vista al desarrollo de un marco de trabajo sólido y apoyado en el uso de buenas prácticas ” La importancia de los marcos éticos y normativos Se expusieron los principales marcos éticos y normativos a tener en cuenta, siempre teniendo presente que están evolucionando y hay que estar atentos a esos cambios para reducir el riesgo de usos incorrectos. “ Una parte importante del uso ético de la IA es democratizar la necesidad concienciando a todos los miembros de una organización de su importancia. El reto a futuro es que no se vea como algo que hay que hacer, sino como algo que quieren hacer. Los marcos éticos son clave para la fase en donde estamos, pero no son suficientes para el futuro ”, según Richard Benjamins , vicepresidente de OdiseIA., Igualmente, Patricia Manca (Partner en PwC New Law España), remarcó que “ la máxima de cualquier regulación de la Inteligencia Artificial debe fundamentarse en lograr los máximos beneficios para las personas, por lo que la involucración proactiva de todos en su desarrollo, implementación y correcta contextualización es clave para el futuro. Cómo se defina e implemente su marco normativo dependerá de nuestro ejercicio responsable como sociedad democrática y defensora de los derechos humanos” El compromiso de Google, Microsoft e IBM Estas compañías están haciendo un gran esfuerzo por ayudar a que la IA sea adoptada de manera ética. Llevan años publicando sus estudios y herramientas para que las empresas que hacen uso de su tecnología lo hagan de una manera responsable. La iniciativa GuIA ha agrupado y sintetizados sus extensos planteamientos para ayudar a que las empresas puedan minimizar los riesgos derivados de no tenerlos en cuenta. Miguel Escassi , Director de políticas públicas y Asuntos con el Gobierno de Google, declaró que “ la inteligencia artificial es una tecnología que nos ayuda a enfrentar desafíos globales que van de la sostenibilidad a la accesibilidad pasando por la educación o la salud. La ética y la regulación son partes centrales en este avance y, por eso, apoyamos y participamos en proyectos como GuIA cuyo objetivo es facilitar el acceso de todos al conocimiento y a las herramientas que les permita desarrollar sus productos y servicios con responsabilidad .” También Alberto Pinedo ( National Technology Officer de Microsoft) señaló como “ Creemos en el potencial de la Inteligencia Artificial para mejorar nuestras vidas y tenemos que hacerlo para el beneficio de todos. Por primera vez tenemos sistemas que asumen el papel que juegan las personas, y debemos examinar los efectos sobre las personas y la sociedad. Responsible AI es la estrategia que adoptamos para desarrollar e implementar nuestra tecnología de manera que se cumplan nuestros principios de equidad, confiabilidad, privacidad y seguridad, transparencia, responsabilidad e inclusión y que sea accesible para todas las personas. ” Enric Delgado Samper (CTO de IBM España, Portugal, Grecia e Israel) indicó que “ hay que tener presente que el propósito de la IA es aumentar la inteligencia humana, que los datos y los conocimientos generados deben pertenecer a su creador, y que tecnologías tan nuevas y potentes como la IA deben ser transparentes, explicables y libres de sesgos perjudiciales para las personas si queremos que la sociedad confíe en ellas. Estos principios son fundamentales, pero estamos ya en un momento en el que hay que ir más allá y pasar a aspectos prácticos de implementación, a nivel de procesos y de tecnología, para poder gestionar y gobernar las soluciones de IA a lo largo de todo su ciclo de vida. Por ello, desde IBM aportamos procesos, servicios y una suite de herramientas específicas, nacidas de IBM Research y disponibles para todo el mundo, segmentadas en cinco áreas clave -explicabilidad, equidad, robustez, transparencia y privacidad- que han quedado muy bien descritas en la GuIA de OdiseIA ”. Telefónica como ejemplo de adopción de la IA de manera ética La compañía española lleva tiempo inmersa en un proceso de transformación para que su adopción de la IA tenga en consideración estos principios éticos y su normativa asociada. Su experiencia fue contada por Francisco José Montalvo , Chief Data Officer de Telefónica, quien señaló que “ En Telefónica, nuestros principios sitúan a las personas en el centro y garantizan el respeto de los derechos humanos en cualquier entorno y proceso en el que se use la inteligencia artificial. Así, estamos trabajando para implementar, sobre la base ya existente de Privacidad por Diseño, una capa adicional que denominamos Ética por Diseño. En ella, implementamos técnicamente los valores y principios éticos durante el ciclo de vida de nuestros productos de Inteligencia Artificial, además de definir las técnicas organizativas necesarias para su consecución ” Próximos pasos ya lanzados: Adaptación sectorial y Formación Las empresas sectoriales también están muy concienciadas a sabiendas de la responsabilidad que tienen con sus clientes. Además de que un uso éticamente correcto de estas tecnologías podría impactar positivamente en la percepción que de ellos pudieran acabar teniendo los mismos. Ya han comenzado los trabajos para adaptarlo a las particularidades de diez sectores empresariales , para lo que contarán con más de 50 empresas . Con la misma vocación de aterrizaje que dirige toda la iniciativa, en este caso se realizará sobre casos actuales o potenciales susceptibles de ser soportados por Inteligencia Artificial. Por tanto, la iniciativa también proporcionará a dichos sectores el conocimiento necesario para modernizar sus negocios a través de IA, y además hacerlo de manera ética y responsable. El trabajo llevará hasta mediados de 2023, y ya han comenzado los preliminares de los sectores de salud, seguros y publicidad. Además, la iniciativa GuIA abordará formaciones detalladas en Escuelas de Negocio y Universidades para hacer llegar estos conceptos a los profesionales de hoy y a los del futuro. A este respecto Rodrigo Miranda , director general de la escuela de negocios ISDI , comentó que “ el impacto que la Inteligencia Artificial va a tener en todos los sectores e industrias está ya fuera de toda duda, pero queda mucho camino a recorrer en formar a las organizaciones y a su fuerza de trabajo. Aplicar principios éticos en el campo de la Inteligencia Artificial se convertirá más en un deber que en una oportunidad para las compañías: si no tienes una IA ética, no existirás. Hay que capacitar a las organizaciones en lo que implica la aplicación de principios éticos en la Inteligencia Artificial. Éstos comienzan desde el mismo momento que las compañías recogen datos de los clientes hasta el momento de elección y aplicación de un algoritmo. La ética en la Inteligencia Artificial asegurará que esa caja negra (black box) en la que en ocasiones se posiciona a la Inteligencia Artificial, deje de serlo ” En definitiva, la Inteligencia Artificial ya tiene un papel fundamental en empresa y sociedad, y lo tendrá aún mucho más. Es por tanto fundamental que las empresas la adopten atendiendo a principios éticos y preceptos normativos. Para ello son necesarias iniciativas como GuIA , para saber cómo hacerlo , y para extender ese conocimiento todo lo posible, de manera colaborativa entre empresas que pueden tener competencia comercial, pero a la vez tener una misma misión común. Tal y como refleja la misión de OdiseIA, trabajar conjunta y activamente por un uso ético y responsable de una Inteligencia Artificial que tenga en su centro el bienestar del ser humano Aquí puedes ver la grabación del evento de presentación de la GuIA Aquí puedes descargar el primer documento GuIA
- Masterclass ¿Es ética la inteligencia artificial?
No te pierdas la Masterclass “Inteligencia Artificial y Ética” organizada por OdiseIA School y que tendrá lugar el próximo lunes 28 de noviembre a las 18:30 Con la participación de Fabián García Pastor, Mónica Villas, Javier Camacho y unos invitados excepcionales: Borja Adsuara Varela, Richard Benjamins, Ignacio González de los Reyes Gavilán, Javier Morales, José Luis Fernández Fernández. #IAyEtica
- Entrevista con nuestro socio Adrián Palma
Compartimos la entrevista que la página web “El Derecho” hizo a nuestro socio Adrián Palma con motivo de su participación en el Congreso de Delegados de Protección de Datos, organizado por la Asociación Española para la Calidad en Valencia, el 14 de diciembre de 2022. Leer la entrevista
- Neuroderechos. Próximo evento.
Evento híbrido sobre Neuroderechos en el espacio-temporal de las Tecnologías Disruptivas Martes 26 de enero, 18:30 horas CET Anunciamos con enorme satisfacción el primer evento organizado por OdiseIA en 2023, de la mano de A. Patricia Llaque Gálvez . En el contexto de la creación del 𝐂𝐞𝐧𝐭𝐫𝐨 𝐍𝐚𝐜𝐢𝐨𝐧𝐚𝐥 𝐝𝐞 𝐍𝐞𝐮𝐫𝐨𝐭𝐞𝐜𝐧𝐨𝐥𝐨𝐠í𝐚, Spain Neurotech , que involucra al Ministerio de Asuntos Económicos y Transformación Digital, a la Comunidad de Madrid y a la Universidad Autónoma de Madrid, es todo un orgullo y un honor poder contar con Rafael Yuste , quién ha dirigido al equipo que ha desarrollado el programa de dicho centro, en este nuevo evento. Desde OdiseIA compartimos el agradecimiento de la dirección del área de 𝐁𝐈𝐎É𝐓𝐈𝐂𝐀 𝐘 𝐍𝐄𝐔𝐑𝐎É𝐓𝐈𝐂𝐀 a Moisés Barrio Andrés, J.D., Ph.D. , a nuestra compañera Wilma Arellano Toledo, Ph.D. y a Carolina Aguilar por sumarse a este nuevo encuentro híbrido en este flamante año. Enlace a las inscripciones aquí. #neuroscience #neuroethics #bioethics #neurotech #aiethics #neurotechnology #aiforgood #neurorights #brainstimulation #brainscience #brainresearch #braincomputerinterface #braindevelopment
- OdiseIA organiza encuentro sobre Neuroderechos
El desarrollo de la IA, la neurotecnología, la nanotecnología, la biotecnología, la edición genómica, la biología sintética, la vida artificial… allanan el camino hacia la modificación estructural y funcional de lo que significa ser humano. La retroalimentación continua de dichos avances con nuevos hallazgos provenientes de la ciencia básica supera la velocidad de nuestro ritmo y capacidad para prepararnos social, ética y jurídicamente ante los riesgos existenciales que se presentan. Ante la creciente imprevisibilidad de dicha convergencia tecnocientífica, en este evento abordaremos la protección internacional de los derechos humanos en la era de la neurotecnología . Más información
- Presentación del libro ” La carta de derechos digitales”
‘Hablar’ sobre derechos digitales es siempre importante y más si cuentas con invitados firmantes y estudiosos de nuestra ‘Carta de derechos digitales’ como Borja Adsuara Varela ; Moisés Barrio Andrés, J.D., Ph.D. , @Ana Aba Catoira, Luis Miguel González De La Garza o Yolanda Quintana , además de con la magnífica intervención de la Carme Artigas . Un honor haber organizado este evento, junto al gran LORENZO COTINO HUESO . El resumen: queda mucho por hacer. La semilla está puesta pero el arbolito lo tenemos que hacer crecer entre todos: empresas, instituciones públicas y privadas y universidades. Algunos de los retos pendientes: mejorar la formación en impacto de la IA y otras nuevas tecnologías, a todos los niveles. También las personas mayores y discapacitados tienen derechos digitales. Debemos de ser capaces de desarrollar herramientas de fácil uso (tipo Google o chatGPT) para que cualquiera, sin nada de conocimientos técnicos, pueda hacer uso de ellas y, así, poder ejercer de manera sencilla y realista nuestros derechos digitales. La formación es importante para un impacto positivo de la transformación digital, pero no es todo… Hace falta algo más profundo. Una reforma mucho más ‘fundamental’ en los organismos públicos que, muchas veces, inciden directamente en la gestión privada. Me refiero en la necesidad de incentivar la agilidad de respuestas, al trabajo colaborativo entre dichos organismos (ya que tecnologías como la IA inciden en varias áreas), a hacer políticas más transversales y efectivas (el tema lo requiere). Muchos diréis que es fácil hablar y difícil hacer… Pero si no se intenta, seguro que no se logrará… En algún momento habrá que empezar. El tema es urgente. Hoy se ha hablado de esto. O empezamos ya con este cambio… o el futuro seguirá sembrado de incertidumbre. Aunque sea con pequeñas miguitas hagamos sentir a la sociedad de a pie, que los ‘derechos digitales’ no son solo una carta de buenas intenciones, sino algo realista que somos capaces de poner en marcha entre todos. Nosotros, desde OdiseIA , lo estamos intentando, de verdad. Muchas gracias también a Ricardo J. Palomo, PhD , María Solano Altaba y Emiliano Blasco Doñamayor (Decanos y vice rector de transformación Digital del CEU) por haber apoyado a la realización de este evento. NOVEDAD: ACCESO AL VIDEO DEL ACTO EN ESTE ENLACE.
- Masterclass emprendIA de OdiseIA School
Miércoles 15 de febrero – 18:30 horas El Emprendimiento cambiará para siempre con la nueva e intensa llegada de la Inteligencia Artificial. Masterclass emprendIA de OdiseIA School con Fabián García Pastor, Ricarlo Palomo, María Jesús González-Espejo Pinche aquí para saber más del evento
- OdiseIA participa en jornada de FP en el País Vasco
Invitada por TKNIKA , expondrá casos de éxito del uso de IA en el sistema educativo. Por parte de OdiseIA, participan nuestros socios Juan Manuel Belloto, Rosa Romero y Francisco Luque. El webinar está dirigido a docentes de FP del País Vasco, se puede seguir en directo en el enlace compartido al final de esta noticia, y también será grabado para quien no lo pueda seguir en directo. WEBINAR 𝗜nteligencia 𝗔rtificial: 𝗲́𝘁𝗶𝗰𝗮 𝗽𝗮𝗿𝗮 𝗹𝗼𝘀 𝗻𝘂𝗲𝘃𝗼𝘀 𝗿𝗲𝘁𝗼𝘀 𝗲𝗻 𝗲𝗱𝘂𝗰𝗮𝗰𝗶𝗼́𝗻 donde participarán expertos de Spain AI, Bilbao AI , Od iseIA y BAIC . JUEVES 23 de febrero 17:00 ONLINE Inscripción: https://bit.ly/3YbWTH1
- ¿Necesitamos algoritmos abiertos?
Lunes 20 de marzo, 17:30 horas, online Jornada con motivo de la presentación del libro “Transparencia y explicabilidad de la Inteligencia Artificial” (Ed. Tirant lo Blanch, Valencia, 2022). Acceso a la reunión Zoom: https://ir.uv.es/oFDgwr3 ID de la reunión: 924 9596 4985 Código de acceso: 224584
- Neurodata, Inteligencia Artificial y Neurotecnologías
Perspectivas interdisciplinares en la gestión de los datos Evento presencial: martes 21 de marzo, de 11:00 a 14:00 horas. Madrid Innovation Lab (C/ Bravo Murillo, 39). La Neurotecnología es una de las prioridades de la Estrategia Nacional de Inteligencia Artificial (ENIA) y se considera uno de los pilares del desarrollo científico y económico de España para los próximos años. Dentro del Plan de Recuperación, Transformación y Resiliencia, a finales de 2022, se ha creado el Centro Nacional de Neurotecnología, Spain Neurotech , para áreas como la Neurociencia y la Inteligencia Artificial están permitiendo desarrollar herramientas tecnológicas basadas en los fundamentos del cerebro humano, al servicio de la salud y de la lucha contra determinadas patologías clínicas como trastornos del neurodesarrollo, enfermedades del espectro autista, Parkinson, Alzheimer, depresión, trastornos del sueño, patologías del ritmo circadiano o en el daño cerebral agudo. La creación del Grupo de Trabajo “Neurodata, IA y Neurotecnologías” permitirá sumarnos a uno de los objetivos de la iniciativa gubernamental, como es “conectar a la comunidad investigadora con el sector público, las empresas y la sociedad, para convertir el conocimiento en soluciones innovadoras con impacto social y económico”. Para dar a conocer el estado del arte de la Neurotecnología el Clúster Big Data Madrid junto con OdiseIA, Spain AI y Tecnalia ha organizado el Workshop “Neurodata, Inteligencia artificial y Neurotecnologías” el próximo 21 de marzo de 2023. Te esperamos. Más información e inscripciones en: https://www.bigdatamadrid.org/neurodata Nota final: la imagen que ilustra esta entrada ha sido generada introduciendo el término “Neurodata” en DreamStudio (versión Beta).












