Más diversidad, más democracia: el llamado de Daniel Innerarity ante el avance de la inteligencia artificial

El filósofo advierte que sin diversidad en el diseño y sin control humano efectivo, la inteligencia artificial podría agravar las desigualdades sociales y debilitar los principios democráticos.
En una reciente entrevista concedida a la Agencia SINC, el filósofo y politólogo Daniel Innerarity, catedrático de Filosofía Política en la Universidad del País Vasco, reflexionó sobre los desafíos que la inteligencia artificial (IA) plantea para las democracias contemporáneas. En un contexto de expansión acelerada de las tecnologías inteligentes, Innerarity advirtió que el diseño y la implementación de la IA requieren más diversidad y un control humano efectivo para no poner en riesgo los valores democráticos fundamentales.
“El principal problema es la falta de diversidad en el diseño de estas tecnologías, tanto en términos de origen geográfico como de sensibilidad política y género”, señaló Innerarity. Según el académico, el hecho de que la mayoría de los desarrolladores pertenezcan a un sector muy homogéneo en términos sociales y culturales implica que los algoritmos y sistemas inteligentes tienden a replicar —y a veces amplificar— sesgos y desigualdades ya existentes en nuestras sociedades.
Uno de los aspectos que Innerarity considera más preocupantes es la escasa participación de mujeres en los espacios de decisión tecnológica. “La falta de mujeres y de otras perspectivas diversas condiciona de manera negativa la orientación ética y democrática de la IA”, advirtió. Para el filósofo, sin una representación más equitativa, el diseño de estas herramientas puede dejar fuera sensibilidades fundamentales, y con ello debilitar los principios de equidad y justicia social.
Además, Innerarity enfatizó que el problema no se limita únicamente a quién desarrolla la tecnología, sino también a cómo se la supervisa y regula. “La delegación ciega de decisiones a sistemas automáticos es incompatible con la idea de una democracia deliberativa”, afirmó. Si los algoritmos sustituyen procesos de discusión pública o se imponen sin control ciudadano, se corre el riesgo de erosionar los espacios colectivos donde se negocian los intereses y los valores de una sociedad plural.
Frente a este escenario, Innerarity propone reforzar los mecanismos de supervisión humana, estableciendo regulaciones que aseguren la rendición de cuentas, la transparencia y el respeto por la diversidad de perspectivas. “Es imprescindible recuperar el control humano sobre las tecnologías inteligentes, asegurándonos de que su diseño, implementación y uso estén alineados con los valores democráticos que queremos proteger”, sostuvo.
Finalmente, en la entrevista realizada el 26 de abril de 2025, Innerarity hizo un llamado a un debate público amplio y plural sobre el futuro de la inteligencia artificial. Para el académico, solo una IA concebida de manera inclusiva, diversa y sometida al control democrático puede contribuir al fortalecimiento de sociedades más justas y abiertas. De lo contrario, advirtió, corremos el riesgo de que estas tecnologías refuercen las desigualdades y las dinámicas de exclusión en lugar de superarlas.
Redacción: Revista Digital Independiente Voz Universitaria
Fuente:
Entrevista a Daniel Innerarity en Agencia SINC: La IA necesita más diversidad y control humano para garantizar los valores democráticos.