top of page

Search Results

113 resultados encontrados

Productos (24)

Ver todas

Eventos (30)

Ver todas

Entradas del blog (44)

  • La inclusión digital no es un lujo, es un derecho.

    Hoy damos un paso firme hacia un futuro más justo con el lanzamiento del Proyecto COPID, una iniciativa destinada a garantizar la igualdad digital para todos, sin importar las circunstancias. Desde OdiseIA, en colaboración con la Universidad Carlos III, la Fundación ONCE y RED.ES, nos comprometemos a transformar los principios de la Carta de Derechos Digitales de España en acciones concretas. El proyecto se puso formalmente en marcha el pasado viernes 11 de octubre en el auditorio de la Fundación ONCE, con la participación del director general de RED.ES, Jesús Herrero Poza; la Secretaria General de la Fundación ONCE, Virginia Carcedo; Francisco Bariffi, Profesor e Investigador Posdoctoral de la Universidad Carlos III de Madrid; y Fabián García Pastor, Director de formación de OdiseIA. COPID nace con una misión clara: no dejar a nadie atrás . En una sociedad donde la tecnología se ha convertido en el centro de nuestras vidas, la inclusión digital debe ser universal. No se trata solo de acceso, sino de oportunidades, de asegurar que los derechos digitales sean efectivos y protejan a todas las personas, especialmente a quienes se encuentran en situación de vulnerabilidad. En OdiseIA, estamos comprometidos con aportar nuestra experiencia en ética e inteligencia artificial. Nuestro objetivo es garantizar que la tecnología se desarrolle de manera inclusiva, respetando principios éticos y evitando que los avances profundicen las desigualdades existentes. COPID es un proyecto colaborativo donde actores gubernamentales, sociales y privados trabajan juntos para convertir la igualdad digital en una realidad palpable. El proyecto COPID se estructura en cinco Comunidades de Práctica (CoP), cada una enfocada en un derecho clave de la Carta de Derechos Digitales: Derecho a la igualdad y a la no discriminación en el entorno digital Derecho de acceso a Internet Protección de niños, niñas y adolescentes en el entorno digital Accesibilidad universal en el entorno digital Brechas de acceso al entorno digital Desde OdiseIA, Maite Sanz de Galdeano, Patricia Llaque, Richard Benjamins y Fabián García Pastor están trabajando junto a otros actores clave para asegurar que cada una de estas CoPs transforme las directrices de la Carta en acciones concretas. Además de los socios principales - Fundación ONCE, Universidad Carlos III de Madrid y OdiseIA - el proyecto cuenta con la participación de representantes del Tercer Sector de Acción Social en España. Nos sentimos orgullosos de formar parte de COPID, aportando nuestra experiencia para garantizar que la transformación digital esté al servicio de todos y no deje a nadie atrás. Queremos construir un entorno digital donde cada persona, sin importar su origen, edad o capacidad, tenga las mismas oportunidades para desarrollarse y tener éxito. Os invitamos a conocer más sobre COPID y a uniros a esta misión . La transformación digital debe ser una fuerza para el bien de toda la sociedad. Juntos, podemos construir un futuro más inclusivo.

  • OdiseIA presenta su participación en el Proyecto COPID: Impulsando la Igualdad en el entorno digital

    Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . OdiseIA se enorgullece de formar parte del lanzamiento del proyecto Comunidades de Práctica para Impulsar la Igualdad en el Entorno Digital  (COPID), cuyo evento de presentación se llevará a cabo el próximo 11 de octubre de 2024  en el Auditorio de Fundación ONCE, en Madrid. Este proyecto busca promover la igualdad de derechos en el entorno digital, un ámbito que requiere atención urgente para garantizar que todas las personas, sin importar sus capacidades, tengan las mismas oportunidades y acceso. El convenio firmado entre Red.es , Fundación ONCE, la Universidad Carlos III de Madrid y OdiseIA busca impulsar la implementación de la Carta de Derechos Digitales en el ámbito de los derechos de igualdad en el entorno digital. Su objetivo es garantizar el acceso igualitario a las tecnologías, la no discriminación y la eliminación de brechas digitales, centrándose en temas como la accesibilidad universal y la formación en competencias digitales. OdiseIA, como parte del convenio, trabaja para asegurar el uso ético de la inteligencia artificial en este contexto. El proyecto COPID se articula en torno a los ejes temáticos establecidos en la Carta de Derechos Digitales relacionados con la igualdad. Estos ejes incluyen el derecho a la igualdad y a la no discriminación en el entorno digital, el derecho de acceso a internet, la protección de niños, niñas y adolescentes en el entorno digital, accesibilidad universal en el entorno digital, y brechas de acceso al entorno digital. En cada uno de estos ejes se están desarrollando comunidades de expertos que trabajarán en propuestas concretas, tanto legislativas como no legislativas, para promover estos derechos.  OdiseIA participa activamente en este esfuerzo, aportando su expertise en el uso ético de la inteligencia artificial aplicado a cada una de las distintas áreas. Durante el evento, Fabián García Pastor participará en la presentación oficial del proyecto, así como en la presentación del eje sobre el derecho de acceso a internet. Asimismo, Maite Sanz de Galdeano participará en la presentación de los ejes dedicados a los derechos a la igualdad y no discriminación y a la protección de niños, niñas y adolescentes en el entorno digital, mientras que Patricia Llaque Gálvez lo hará con el área relativa a las brechas de acceso al entorno digital. Este evento es una oportunidad única para debatir sobre cómo construir un entorno digital inclusivo y accesible, asegurando que la tecnología y las herramientas de inteligencia artificial no generen barreras, sino que impulsen la igualdad. El formato del evento será híbrido, permitiendo la participación tanto presencial como a través de streaming. Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . ¡No te pierdas esta oportunidad de formar parte del cambio hacia un entorno digital más justo e inclusivo!

  • AI for Good: La idea de la vulnerabilidad humana en tela de juicio

    Autora: Dra. Begoña G. Otero, miembro de OdiseIA e investigadora perteneciente al subgrupo «AI for Good», cAIre Research Project. Introducción: La vulnerabilidad humana en tiempos de las tecnologías de IA Vivimos en un mundo en el que los sistemas de IA pueden utilizarse para predecir nuestro próximo movimiento, sugerir productos y servicios que no sabíamos que queríamos o incluso decidir si nos conceden un préstamo o un tratamiento médico. Emocionante, ¿verdad? Sin embargo, he aquí la otra cara de la moneda: ¿y si esta misma tecnología se utiliza para aprovecharse de nuestras debilidades, influye sutilmente en nuestras decisiones, daña nuestra integridad o profundiza las desigualdades sociales? Si estas posibilidades os generan inquietud, no estáis solos. El rápido avance de las tecnologías de IA plantea importantes cuestiones sobre la vulnerabilidad humana. ¿Qué significa ser vulnerable en el contexto de la IA? ¿Cómo podemos garantizar que estas tecnologías nos ayuden en lugar de perjudicarnos? Estos interrogantes no son sólo académicos; nos afectan a todas y a todos en nuestra vida cotidiana. En las siguientes líneas vamos a profundizar en el concepto de vulnerabilidad; a explicar cómo ha evolucionado a lo largo del tiempo, y cómo distintas teorías de diferentes campos del conocimiento pueden ayudarnos a entenderlo mejor en el contexto de la IA. Asimismo, este blogpost proporciona ejemplos concretos que ilustran estas teorías y plantea la pregunta de si la concepción actual de la vulnerabilidad humana es adecuada en el contexto de las tecnologías de la IA. Como investigadora de las aplicaciones de uso positivas de la IA para ayudar a personas vulnerables, es crucial definir qué significa vulnerabilidad en la era de la IA antes de que podamos sacarle todo el partido a su potencial para hacer el bien. La evolución del concepto de vulnerabilidad La idea de vulnerabilidad es tan antigua como la propia humanidad, pero su definición ha evolucionado significativamente con el tiempo. Vamos a hacer un recorrido por su historia para entender cómo se aplica hoy en día, especialmente en el contexto de las tecnologías de IA. Las primeras interpretaciones de la vulnerabilidad Históricamente, la vulnerabilidad se ha considerado a menudo como una condición estática. Por ejemplo, a principios de la década de 1980, el  politólogo Robert Goodin  definió la vulnerabilidad como la «susceptibilidad al daño de los propios intereses». Goodin sostenía que los más vulnerables a nuestras acciones y negligencias son aquellos a los que debemos mayor responsabilidad. Esta perspectiva vinculaba directamente la vulnerabilidad con la responsabilidad y la rendición de cuentas. Pensemos, por ejemplo, en las personas mayores que dependen de cuidadores. La teoría de Goodin sugeriría que la sociedad tiene una mayor responsabilidad de proteger a estas personas porque son más susceptibles de sufrir daños. Un cambio de perspectiva: La vulnerabilidad universal Con el tiempo, los académicos empezaron a considerar la vulnerabilidad tanto una condición de grupos específicos como un aspecto universal de la condición humana. Martha Fineman , una destacada teórica jurídica, introdujo el concepto de «sujeto vulnerable». Sostenía que todos los seres humanos somos intrínsecamente vulnerables debido a nuestro cuerpo físico y a nuestra dependencia de las relaciones sociales y las instituciones. Esta visión desplaza la atención de la protección de grupos específicos al reconocimiento de la vulnerabilidad como un rasgo humano fundamental. La teoría de Fineman ayuda a explicar por qué las personas pueden sentirse vulnerables en distintas etapas de la vida, tales como la infancia, la enfermedad o el envejecimiento. Subraya la necesidad de estructuras sociales que apoyen a todos, no sólo a determinados grupos. La vulnerabilidad contextual y relacional Teorías más recientes subrayan que la vulnerabilidad no es sólo un rasgo humano universal, sino también muy contextual y relacional. La eticista Florencia Luna , por ejemplo, ha propuesto la idea de «capas (no etiquetas) de vulnerabilidad». Según Luna, la vulnerabilidad varía en función de la situación, el momento y el lugar del individuo. Este enfoque por capas permite una comprensión más matizada de cómo los distintos factores contribuyen a la vulnerabilidad de una persona en distintos momentos. Por ejemplo, una mujer embarazada puede experimentar una mayor vulnerabilidad debido a los riesgos para su salud y a las expectativas sociales. Sin embargo, su vulnerabilidad no es estática; cambia con su salud, sus sistemas de apoyo y su situación socioeconómica. Un examen comparativo de estas teorías de la vulnerabilidad más representativas en distintos campos de la ciencia permite extraer una serie de conclusiones. La vulnerabilidad es un aspecto inherente a la humanidad, específico de los seres vivos y relacional. Los desequilibrios de poder ocupan un lugar central en su conceptualización teórica, y existen dos enfoques para abordarla: la reparación de los daños de forma colectiva o el empoderamiento de los individuos. Por último, la ética y el derecho a menudo adoptan un enfoque de etiquetaje de la vulnerabilidad, proporcionando listas de poblaciones vulnerables. Sin embargo, como ha mencionado Luna , la estratificación por capas abre la puerta a un enfoque mucho más interseccional y enfatiza su potencial acumulativo y transitorio. Las teorías vigentes sobre la vulnerabilidad frente a las tecnologías de IA: algunos ejemplos concretos Para comprender mejor el impacto de las tecnologías de IA en la vulnerabilidad humana y si los enfoques existentes sobre este concepto son suficientes, es vital explorar al menos algunas de las teorías más relevantes sobre la vulnerabilidad y sustentarlas con ejemplos del mundo real. Estas teorías nos ofrecen un marco para comprender las distintas dimensiones y contextos de la vulnerabilidad. El modelo de vulnerabilidad de Goodin El modelo de Robert Goodin subraya la idea de que la vulnerabilidad está estrechamente ligada a la dependencia y la responsabilidad. Según Goodin, aquellos que son más vulnerables a nuestras acciones son aquellos de los que somos más responsables. En el contexto de la IA, pensemos en los sistemas automatizados de toma de decisiones en la atención sanitaria. Los pacientes que confían en la IA para su diagnóstico y tratamiento son vulnerables a los errores y sesgos del sistema. Por tanto, los proveedores de asistencia sanitaria deben asumir una gran responsabilidad a la hora de garantizar la exactitud e imparcialidad de estos sistemas de IA para proteger a los pacientes vulnerables. Pero, ¿es éste el mejor camino? La teoría del sujeto vulnerable de Fineman La teoría de Martha Fineman postula que la vulnerabilidad es una condición humana universal. Sostiene que nuestras dependencias físicas y sociales inherentes nos hacen a todos vulnerables, y que la sociedad debe estructurarse para apoyar a todos y no sólo a grupos específicos. Las plataformas de redes sociales que utilizan algoritmos y sistemas de IA para moderar contenidos pueden afectar a todos los usuarios, especialmente cuando los algoritmos no reconocen los matices de la comunicación humana. Esto puede conducir a una censura injusta o a la difusión de contenidos nocivos, afectando a la vulnerabilidad de todos ante la desinformación y el acoso. Sin embargo, ¿hasta qué punto permiten nuestros ordenamientos jurídicos asignar responsabilidades a estas plataformas?  Las capas de vulnerabilidad de Luna El concepto de capas de vulnerabilidad de Florencia Luna sugiere que la vulnerabilidad no es estática, sino que varía en función de las circunstancias del individuo. Este enfoque por capas tiene en cuenta factores como el estatus, el tiempo y la ubicación. Los trabajadores de la economía colaborativa  que utilizan plataformas basadas en IA, como las aplicaciones para compartir desplazamientos ( ride-sharing apps),  pueden experimentar diferentes niveles de vulnerabilidad. Un conductor puede ser más vulnerable durante los turnos nocturnos debido a problemas de seguridad y a la fluctuación de la demanda. Su entorno laboral, su situación económica y el diseño de la plataforma de IA influyen en su vulnerabilidad. Sin embargo, ¿se tienen realmente en cuenta estas capas a la hora de diseñar este tipo de servicios comerciales? ¿Es la vulnerabilidad siquiera un factor que tengan en cuenta los propietarios de estas plataformas? ¿Debería serlo? Las críticas y mejoras de Kohn Nina Kohn  criticó la teoría de Fineman por su potencial para dar lugar a políticas públicas excesivamente paternalistas y estigmatizadoras. Sugirió mejorar dicha teoría para defender mejor las libertades individuales sin dejar de abordar las vulnerabilidades. La autora aboga por un enfoque ponderado que tenga en cuenta tanto la protección como la autonomía. Un ejemplo de su planteamiento sería el caso de los sistemas de vigilancia por IA que se están implantando ampliamente en los espacios públicos con fines de seguridad pública, lo que podría vulnerar los derechos individuales a la intimidad, haciendo que las personas se sientan constantemente vigiladas y pudiendo dar lugar a un uso indebido de los datos. Además, estos sistemas podrían dirigirse de forma desproporcionada a determinadas minorías raciales o étnicas, exacerbando los prejuicios existentes y dando lugar a un trato injusto. La perspectiva de Kohn haría hincapié, entre otras cosas, en la necesidad de (a) implantar obligaciones de transparencia sobre cómo se hace uso de la tecnología, qué datos se recopilan, cómo se almacenan y protegen; (b) establecer mecanismos de supervisión sólidos para garantizar que la vigilancia mediante IA se utiliza de forma ética y legítima; y (c) restringir el ámbito de uso a zonas públicas o situaciones en las que sea realmente necesario por motivos de seguridad pública. Como resultado, la implantación de un sistema de vigilancia por IA en un espacio público podría incluir un rótulo claro que informe a los ciudadanos sobre la vigilancia y el uso de los datos, un sitio web dedicado para el acceso público a información detallada, auditorías independientes periódicas y mecanismos para que las personas puedan dar su opinión o presentar quejas. Este equilibrio entre protección y autonomía es crucial a la hora de diseñar normativas sobre IA que respeten tanto la seguridad como la libertad. Las vulnerabilidades potenciales y ocurrentes de Mackenzie La  filósofa Catriona Mackenzie  introdujo la distinción entre vulnerabilidades potenciales o disposicionales y ocurrentes. Las vulnerabilidades potenciales se refieren a un estado con riesgo de daño, pero tal riesgo no es de momento concreto y tangible. Implica que existen ciertas condiciones que podrían provocar daños, pero que en la actualidad no causan ningún peligro inmediato. Por otro lado, la vulnerabilidad ocurrente es un estado de vulnerabilidad concreto y tangible en el que el riesgo se ha hecho inminente o se está produciendo un daño real. Este tipo de vulnerabilidad requiere una acción inmediata para prevenir o mitigar el daño. Su distinción es significativa porque ayuda a identificar si las vulnerabilidades requieren una intervención inmediata o medidas preventivas para evitar daños futuros. También permite dar respuestas más específicas y eficaces a los distintos tipos de vulnerabilidades. En este sentido, pensemos en los sistemas de IA utilizados en la vigilancia policial predictiva. Las vulnerabilidades potenciales podrían incluir el riesgo de que comunidades específicas sean objeto de ataques injustos basados en IA predictiva entrenada con datos históricos. Las vulnerabilidades ocurrentes tienen lugar cuando las prácticas policiales existentes dan lugar a un exceso de vigilancia y control de estas comunidades, lo que genera desconfianza y perjuicios. Otro ejemplo de vulnerabilidad potencial podría ser un sistema de IA diseñado para procesos de contratación que utilice un conjunto de datos procedentes de datos de entrenamiento que contengan sesgos sutiles, como preferencias históricas por determinados grupos demográficos en detrimento de otros. El uso de un sistema de este tipo puede dar lugar a una vulnerabilidad disposicional al tomar sus usuarios decisiones sesgadas, con el consiguiente potencial de discriminación. En el caso de las vulnerabilidades ocurrentes, se podría considerar un sistema de IA diseñado para gestionar transacciones financieras, que detecte un patrón inusual que indique un ciberataque en curso. Los protocolos de seguridad del sistema se están viendo activamente comprometidos, lo que permite el acceso no autorizado a datos financieros sensibles. Los usuarios de este sistema de IA son en ese momento vulnerables porque el riesgo se ha materializado y necesitan una acción inmediata para mitigar el daño. Implicaciones prácticas de estas teorías Entender estas teorías nos ayuda a reconocer las formas multidimensionales en que las tecnologías de IA pueden afectar a la vulnerabilidad humana. Por ejemplo, la identificación de vulnerabilidades potenciales puede informar el diseño proactivo de sistemas de IA para mitigar los riesgos antes de que se materialicen. Además, reconocer la naturaleza en capas de la vulnerabilidad garantiza que las aplicaciones de IA tengan en cuenta las diversas circunstancias de los distintos grupos de usuarios. Una propuesta de taxonomía para entender la vulnerabilidad en el contexto de las tecnologías de IA Los ejemplos anteriores demuestran que es esencial desarrollar una taxonomía exhaustiva para abordar la naturaleza compleja y polifacética de la vulnerabilidad en el contexto de la IA. Esta taxonomía debería tener en cuenta diversos factores que contribuyen a la vulnerabilidad humana y ofrecer un enfoque estructurado para identificar y mitigar estas vulnerabilidades. Sobre la base de las teorías debatidas y de las ideas extraídas de la literatura, he aquí una serie de factores que, si se tienen en cuenta, pueden ayudar a descubrir mejor la vulnerabilidad humana en el contexto de las tecnologías de IA. Condiciones demográficas y socioeconómicas Las condiciones demográficas y socioeconómicas desempeñan un papel importante a la hora de determinar la vulnerabilidad en el espacio digital. Ciertos grupos pueden ser más susceptibles de sufrir daños debido a su edad, sexo, nivel educativo, ingresos o etnia. Estos factores pueden crear desventajas que se ven exacerbadas por las tecnologías de IA. Los ciudadanos de más edad pueden tener dificultades con los servicios bancarios en línea basados en IA debido a su falta de alfabetización digital, lo que les hace más vulnerables al fraude o a los errores. Aspectos psicosociales Las características psicosociales, como la salud mental, el estado emocional y las capacidades cognitivas, influyen en la forma en que las personas interactúan con los sistemas de IA y pueden afectar a su susceptibilidad a la manipulación o al daño por parte de las tecnologías de IA. Las personas con problemas de salud mental pueden ser más vulnerables a los algoritmos de IA que se dirigen a ellas con anuncios de productos potencialmente nocivos, como el juego o el alcohol. Competencias y alfabetización relacionadas con la IA Los conocimientos y habilidades de un usuario relacionados con la IA pueden influir significativamente en su vulnerabilidad. Las personas con conocimientos limitados sobre el funcionamiento de la IA o sobre cómo navegar por los sistemas basados en IA pueden correr un mayor riesgo de explotación o daño. Los consumidores que necesitan ayuda para entender cómo funcionan los algoritmos de recomendación pueden ser más propensos a caer en sugerencias de productos engañosas o información sesgada. Factores contextuales, relacionales y situacionales El contexto en el que se utilizan las tecnologías de IA puede crear vulnerabilidades situacionales. Estos factores incluyen el entorno, el tiempo y las circunstancias específicas en las que se emplea un sistema de IA. Los trabajadores de la economía colaborativa que utilizan plataformas basadas en IA pueden enfrentarse a vulnerabilidades relacionadas con la seguridad del empleo y las condiciones de trabajo, que pueden variar significativamente en función de la ubicación y la demanda. Desequilibrios de poder y asimetrías de información Los desequilibrios de poder entre desarrolladores y usuarios de IA, así como las asimetrías de información, contribuyen a la vulnerabilidad. A menudo, los usuarios carecen de los conocimientos o los recursos necesarios para comprender plenamente o cuestionar los sistemas de IA, lo que les coloca en desventaja. Las plataformas de redes sociales que utilizan IA para seleccionar contenidos pueden manipular el comportamiento de los usuarios mediante la maximización algorítmica de la participación sin que los usuarios comprendan plenamente el alcance de esta influencia. Factores temporales El momento y la duración de las interacciones con la IA pueden influir en la vulnerabilidad. Algunas vulnerabilidades pueden ser coyunturales y a corto plazo, mientras que otras pueden ser duraderas y crónicas. La vulnerabilidad financiera temporal debida a la pérdida del empleo puede hacer que las personas sean más susceptibles a los servicios de préstamos predatorios controlados por sistemas de IA. Conclusiones: ¿Necesitamos replantearnos qué es la vulnerabilidad humana en el contexto de la IA? La clasificación anterior es un primer intento de abordar de forma estructurada la cuestión de la vulnerabilidad en el contexto de la IA. Está abierta a correcciones y modificaciones en el transcurso de este proyecto de investigación y está abierta a comentarios externos. Aunque es posible que esta taxonomía no resuelva el problema principal de si necesitamos replantearnos el concepto de vulnerabilidad en el contexto de las tecnologías de IA, puede ayudar a identificar nuevas situaciones y proporcionar orientación tanto a emprendedores innovadores como a responsables políticos en términos de diseño inclusivo y evaluación de riesgos. Aun así, queda una pregunta sin respuesta: A la luz de la rápida evolución de las tecnologías de IA, ¿necesitamos revisar la conceptualización jurídica de la vulnerabilidad humana a nivel internacional? Esta cuestión jurídica es objeto de un proyecto de investigación independiente que pronto se materializará en un trabajo de investigación. En resumen... continuará.

Ver todas

Otras páginas (15)

  • Hackathon OdiseIA4Good | Hackathon Internacional de IA

    OdiseIA4Good es el hackathon internacional de inteligencia artificial orientado al bien común. Diseña soluciones innovadoras con impacto real en colectivos vulnerables y participa en la gran final en Madrid 2026. Hackathon OdiseIA4Good: II Hackathon Internacional de IA para Colectivos Vulnerables Gran Final Presencial | 23 - 25 de Febrero 2026 | Espacio Pablo VI (Madrid) INTELIGENCIA ARTIFICIAL AL SERVICIO DE LOS QUE MÁS LO NECESITAN Información general ¿Quieres usar tu talento para cambiar el mundo? Esto no es un hackathon cualquiera, ¡es OdiseIA4Good! Te presentamos la mayor oportunidad de demostrar que la inteligencia artificial, en tus manos, puede transformar la vida de quienes más lo necesitan. Personas mayores, niños en situación de riesgo, refugiados, personas con discapacidad o comunidades afectadas por catástrofes naturales esperan soluciones tecnológicas valientes, creativas y con impacto real. Durante estos meses darás forma a tu proyecto y lo llevarás hasta la gran final presencial en Madrid, donde la energía, las ideas y la pasión se convertirán en innovación con propósito. ¡Sí, has oído bien! Creemos en ti y sabemos que tienes el talento y la determinación para llegar muy lejos, incluso hasta la final. Es tu momento. Tu oportunidad de dejar huella. Tu opción de cambiar el futuro. ¿Cómo participar? ¡Inscríbete! ¿Qué es OdiseIA4Good? OdiseIA4Good es el primer hackathon internacional de OdiseIA, apoyado por Google.org y la Fundación Pablo VI. Su misión es usar la inteligencia artificial para crear soluciones que transformen la vida de colectivos vulnerables. Desde su primera edición en 2025, reúne a empresas, profesionales, estudiantes y entidades sociales para colaborar, innovar y generar un impacto social real. Aquí, tus ideas no solo cuentan sino pueden cambiar el mundo. Hackathon 2026 Visita OdiseIA Reto del Hackathon #O4G 2026 Diseñar una solución innovadora que combine inteligencia artificial y propósito social. Tu propuesta debe incorporar la IA como núcleo de su funcionamiento, ser nueva y original, y generar un impacto real en la vida de uno o varios de los colectivos vulnerables siguientes. Personas Mayores Población en etapa avanzada de la vida que puede enfrentar soledad, dependencia y barreras para acceder a servicios básicos. Niños/as, Adolescentes y Jóvenes Menores y jovenes expuestos a situaciones de violencia, pobreza o exclusión social que limitan su desarrollo integral. Migrantes y Refugiados Personas que dejan su lugar de origen por necesidad o persecución y enfrentan retos de integración, derechos y pertenencia. Personas con Discapacidad Individuos con limitaciones funcionales que requieren accesibilidad, apoyos y equidad para su plena participación social. Afectados por el Cambio Climático o Desastres Naturales Comunidades que pierden hogares, medios de vida o seguridad debido a desastres naturales o ambientales. Calendario OdiseIA4Good 2026 Inscripciones: 1 de Octubre de 2025 - 20 de Enero de 2026 Selección de los finalistas: 26 de Enero 2026 Gran final presencial: 23, 24 y 25 de Febrero 2026 ¿Cómo participar? Inscríbete PREMIOS Los premios serán revelados muy pronto… ¡prepárate para sorprenderte y dar lo mejor de ti en la gran final! VER MÁS De la idea al impacto: el camino de GaIA, un asistente contra la soledad nacido en el Hackathon OdiseIA4Good " GaIA nació en el Hackathon OdiseIA4Good 2025, donde ganamos el premio de la aceleradora Wolaria" Lo que empezó como un concepto se ha convertido en un proyecto real: un asistente contra la soledad para personas mayores. Gracias al programa de Wolaria y al taller del Instituto para la Competitividad Empresarial de Castilla y León, aprendimos a construir no solo tecnología, sino también un modelo de negocio sostenible y con impacto social. Hoy seguimos avanzando con una visión clara de crear una tecnología humana, accesible y capaz de mejorar la vida de quienes más lo necesitan. Del Hacktahon OdiseIA4Good puede nacer mucho más que una idea, puede nacer una transformación. "GaIA avanza en dos frentes: el desarrollo de la aplicación, que permitirá a familias y cuidadores acompañar mejor a las personas mayores, y del hardware, que facilitará una interacción sencilla y accesible. GaIA empieza a dejar de ser un sueño para convertirse en una realidad tangible." Miguel, Alex y Pablo (Ganadores del Premio Wolaria 2025) ¿Quieres ser el próximo ganador? ¿Cómo participar? Leer más Nuestros Partners Ser partner del Hackathon OdiseIA4Good es sumarse a una iniciativa que pone la Inteligencia Artificial al servicio de las personas, una oportunidad única para impulsar soluciones inclusivas que respondan a los retos de colectivos vulnerables, generando un impacto social positivo y sostenible. En la era de la democratización de la IA, las entidades que participan en esta edición no solo se posicionan como referentes en tecnología responsable, sino que también acceden a proyectos con alto potencial de crecimiento, conectando con estudiantes, empresas, emprendedores y entidades del tercer sector comprometidas con el cambio. ¡Descubre quién nos impulsa! To play, press and hold the enter key. To stop, release the enter key. Mentores, Jurado y Speakers Acompañamos a los participantes en el desarrollo de soluciones innovadoras que buscan dar respuesta a los desafíos sociales más urgentes, compartiendo nuestra experiencia y conocimiento especializado en Inteligencia Artificial para potenciar proyectos con verdadero impacto, aportando perspectivas sobre estrategia empresarial, lanzamiento y escalabilidad. Esta edición cuenta también con un jurado de excelencia y con unos speakers de primer nivel, que enriquecen la experiencia y refuerzan el compromiso con la innovación social impulsada por la IA. ¡Conoce al equipo! Idoia Salazar Presidenta del Observatorio del Impacto Ético y Social de la IA (OdiseIA) Richard Benjamins Presidente del EIT Digital CEO de OdiseIA CEO de Raight AI Miguel Escassi Jefe de Asuntos Gubernamentales y Políticas Públicas en Google España y Portugal Jesús Avezuela Director General de la Fundacion Pablo VI Letrado del Consejo de Estado Sergio Rodriguez Enviado Diplomático Especial para la IA ante la Soberana Orden de Malta VER MÁS S.M. el Rey Don Felipe VI asumió la Presidencia de Honor del 1º Hackathon de Inteligencia Artificial para Colectivos Vulnerables OdiseIA4Good organizado por el Observatorio del Impacto Ético y Social del IA (OdiseIA) en 2025. Saber más Hackathon 2025 About Me Lugar, fecha y hora Estructura de la Gran Final Presencial Agenda Preliminar Jornada 1 | 23 de Febrero 2026 Inauguración de la Gran Final del Hackathon. Sesiones de trabajo con los mentores. Celebración de un workshop por la tarde. Jornada 2 | 24 de Febrero 2026 Sesiones de trabajo con los mentores. Celebración de un workshop por la mañana. Celebración de un workshop por la tarde. Jornada 3 | 25 de Febrero 2026 Sesión de trabajo con los mentores. Presentación del elevator pitch frente al jurado. Ceremonia de Clausura y Entrega de Premios. Dirección Contacto Espacio Pablo VI P.º de Juan XXIII, 3 Moncloa - Aravaca 28040 Madrid contacto@odiseia4good.org www.odiseia4good.org www.odiseia.org Asiste a la Ceremonia de Clausura y Entrega de Premios FAQs | Preguntas Frecuentes Participación Inscripción Reto Gran Final Presencial Premios OdiseIA4Good Connect Aspectos Legales ¿Quién puede participar? Cualquier persona mayor de edad u organización interesada en usar la inteligencia artificial con impacto social: estudiantes, profesionales, investigadores, startups, ONGs, empresas y administraciones públicas. ¿Puedo participar si no tengo conocimientos avanzados en IA? Sí. Se valoran perfiles multidisciplinares. La creatividad, el enfoque social y la capacidad de trabajo en equipo son tan importantes como el aspecto técnico. ¿Debo participar en equipo o puedo hacerlo individualmente? Puedes inscribirte individualmente o en equipo (máximo 8 personas). ¿Es necesario representar a una organización para participar? No. Puedes participar a título personal o en nombre de una organización. ¿Se puede presentar más de un proyecto por equipo o persona? No. Cada participante o equipo puede presentar una única propuesta. ¿Qué idiomas se utilizarán en el hackathon? Español e inglés. Habrá traducción simultánea cuando sea necesario. ¿Debo conectarme obligatoriamente a las sesiones formativas previas que ofrece la organización? No es obligatorio asistir a las sesiones formativas, pero sí es altamente recomendable. Estas sesiones te proporcionarán conocimientos clave sobre la mecánica que se utilizará durante el hackathon, lo que facilitará tu participación. Las sesiones se llevarán a cabo los meses previo al hackathon. ¡Mantente atento a tu correo electrónico para no perderte los detalles y horarios!

  • Partners | Hackathon OdiseIA4Good

    Nuestros partners no solo se posicionan como referentes en tecnología responsable, sino que también conectan con startups, emprendedores y ONGs comprometidos con el cambio, impulsando proyectos con alto potencial de crecimiento. Partners En OdiseIA4Good contamos con la colaboración de aliados estratégicos que comparten nuestra visión de impulsar la innovación y el progreso de la sociedad. Nuestros partners desempeñan un papel fundamental en el éxito de esta iniciativa, ofreciendo su experiencia, recursos y compromiso para crear una experiencia única y enriquecedora para todos los asistentes. Si tu entidad o empresa quiere ser parte de esta iniciativa, contacta con nosotros en participa@odiseia4good.org Platinum Partners Silver Partners OdiseIA Partners Institutional Partners Educational Partners Impact Contributors

  • Premios | Hackathon OdiseIA4Good

    Los proyectos más innovadores y con mayor impacto social serán reconocidos en la gran final del Hackathon OdiseIA4Good 2026. Premios (TBA) OdiseIA4Good otorgará 6 premios que siempre estarán asociados a la mejora del desarrollo de la solución de los proyectos ganadores. Los premios definitivos serán anunciados en esta página web oficial en el momento de la notificación de los seleccionados como finalistas, pudiendo incluir opciones como: Premios económicos. Acceso prioritario y/o mentorización personalizada para inclusión en incubadoras. Adopción del proyecto en una organización para seguir desarrollando la solución. Créditos en la nube. Inclusión en un programa de startups de corporaciones. GANADORES DEL 2025 DiloClaro: IA con propósito, cuando la innovación social se enfrenta a las estructuras Leer más De la idea al impacto: el camino de GaIA, un asistente contra la soledad nacido en #O4G, en Wolaria Leer más

Ver todas
bottom of page