En un contexto donde la inteligencia artificial avanza a un ritmo vertiginoso, voces como la de María Cano son más necesarias que nunca para reflexionar sobre los aspectos éticos y medidas políticas que deben guiar la implementación de la tecnología. Escritora y pensadora con una mirada transversal, Cano ha dedicado su trayectoria a reflexionar sobre la intersección entre tecnología, ética y autonomía.
Con motivo del XII Congreso Nacional de Organizaciones de Mayores, conversamos con ella sobre los desafíos y oportunidades que la IA plantea para la calidad de vida de las personas mayores.
A lo largo de la entrevista, la experta advierte sobre los riesgos de una digitalización deshumanizante, la dependencia tecnológica, la exclusión por diseño y la opacidad algorítmica. Pero también propone caminos: una IA transparente, inclusiva y al servicio del bienestar colectivo. Frente a la automatización, su apuesta es clara: más pensamiento crítico, más diversidad y más compromiso ético en el desarrollo tecnológico.
-¿Cómo puede la IA puede impactar en la calidad de vida de las personas mayores y qué riesgos deben considerarse desde el punto de vista ético?
La inteligencia artificial tiene un enorme potencial para mejorar la calidad de vida de las personas mayores. Existen hoy en día tecnologías que permiten monitorizar parámetros vitales en tiempo real, asistentes virtuales que ayudan a recordar medicamentos o citas médicas, detección temprana de enfermedades e incluso seguimiento en remoto de pacientes crónicos o geolocalización de personas con problemas cognitivos.
Además, la IA puede ayudar a simplificar interfaces mediante la transformación de textos en voz o la traducción instantánea, así como la asistencia en trámites complejos. Estas herramientas pueden contribuir a una vida más segura, conectada y digna para quienes enfrentan el envejecimiento con distintos grados de dependencia o soledad.
Sin embargo, este avance no está exento de desafíos éticos. Uno de los principales riesgos es la sustitución del vínculo humano por soluciones automatizadas, lo cual podría llevar a una forma de deshumanización del cuidado. Y es que la lógica de eficiencia aplicada por la IA puede desplazar dimensiones fundamentales como la escucha o el afecto. La estandarización podría invisibilizar la singularidad de cada persona, reduciéndola a un perfil algorítmico.
Además, ¿qué pasa cuando estamos acostumbrados a hacer algo cotidiano y, de pronto, lo delegamos en la IA? La dependencia tecnológica podría reducir la autonomía real si sustituye tareas o habilidades que consideramos cotidianas en lugar de fortalecerlas, lo que empeoraría las condiciones tanto cognitivas como físicas.
Por otro lado, el diseño no inclusivo de interfaces no adaptadas a personas con limitaciones cognitivas, visuales o motoras genera exclusión para determinados grupos, lo que se vincula, claro, con la desigualdad de acceso, ya que no todas las personas mayores cuentan con recursos o conocimientos digitales suficientes.
Y de los datos, ni hablamos… ¿Qué pasa con todos los datos sensibles que tienen que ver con la monitorización y el uso de aplicaciones que trabajan con información de los individuos? Es necesario que se pueda garantizar un uso transparente, seguro y consentido de todos esos datos.
Necesitamos un desarrollo tecnológico que avance en paralelo con lo humano para poder tener en cuenta el impacto de todas estas cuestiones en los seres humanos, y poner a disposición de las personas mayores un servicio de apoyo que brinde oportunidades de acceso reales.
-¿Podrías compartirnos algún caso concreto que refleje los dilemas éticos actuales en el uso de la IA?
Un ejemplo podría ser el uso de robots sociales como ElliQ, una especie de asistente robótico diseñado específicamente para personas mayores que viven solas. Este dispositivo utiliza inteligencia artificial para generar conversaciones, sugerir actividades, recordar medicamentos y ofrecer compañía emocional. Ha sido promovido como una solución para combatir la soledad en la vejez, y ha sido implementado en programas estatales en lugares como Nueva York.
Aunque sus beneficios son evidentes —favorece la autonomía, estimula el vínculo social y puede detectar señales de deterioro cognitivo o emocional— también plantea dilemas éticos importantes. Uno de los más relevantes es el riesgo de sustitución del contacto humano por interacción artificial. ¿Hasta qué punto estamos delegando el cuidado y el afecto en una máquina? ¿Y qué impacto tiene esto en la dignidad, la identidad y el bienestar emocional de una persona?
En el fondo, este ejemplo refleja todos y cada uno de los dilemas éticos que he mencionado en el punto anterior. Son las dos caras de la moneda.
-Vivimos en una era donde la automatización y los algoritmos toman cada vez más decisiones por nosotros. ¿Cómo podemos garantizar que la IA sea una herramienta que potencie la autonomía humana en lugar de limitarla?
La clave está en diseñar inteligencias artificiales que no sustituyan nuestras decisiones, sino que las acompañen, las amplíen y las enriquezcan. Pero, lamentablemente, esto está en contra de todas las lógicas utilitaristas que producen IA en pro del progreso y la eficiencia sin mirar más allá, sin mirar lo humano.
Necesitamos sistemas que sean transparentes, explicables y controlables (confiables al fin y al cabo), sistemas que podamos comprender, que podamos trazar sus conclusiones de recomendación, que podamos entenderlas y que podamos intervenir en ellas, corregirlas o rechazarlas si así lo decidimos. De lo contrario, corremos el riesgo de delegar decisiones importantes a procesos que no comprendemos, lo cual erosiona nuestra autonomía.
Pero, por supuesto, también es esencial educar el pensamiento crítico. La autonomía no se potencia solo con buenas herramientas, sino con ciudadanos capaces de usarlas con conciencia. Esto requiere alfabetización tecnológica, pero también ética, política y una visión y conciencia colectiva.
Hay que pensar la autonomía más allá del individuo. La verdadera autonomía humana se construye en entornos sociales que nos permiten decidir con libertad, dignidad y apoyo. Por eso, desarrollar una IA que potencie la autonomía implica también repensar los modelos de desarrollo tecnológico desde una lógica de justicia social, diversidad y participación colectiva.
-Existe preocupación sobre los sesgos en los algoritmos de IA. Desde una perspectiva ética, ¿cómo pueden las organizaciones y empresas trabajar para desarrollar inteligencias artificiales más justas e inclusivas?
Creo que el primer paso es reconocer que los algoritmos no son neutrales. Reflejan, y muchas veces amplifican los sesgos presentes en los datos con los que fueron entrenados, en los equipos que los desarrollan y en los contextos sociales en los que se implementan. Por eso, trabajar por una IA más justa no es solo una cuestión técnica, sino profundamente ética y estructural.
Desde esa perspectiva, las organizaciones deben comprometerse con la diversidad en los equipos de desarrollo. No se puede crear tecnología inclusiva si las voces que históricamente han sido excluidas no están presentes en su diseño. Esto incluye diversidad de género, origen, edad, formación y experiencia vital.
También es necesario implementar auditorías éticas y técnicas que identifiquen sesgos en los datos, los modelos y los resultados. Estas evaluaciones deben ser continuas, independientes y transparentes. Además, debe garantizarse el derecho a la explicación: las personas tienen que poder entender cómo se toman las decisiones que les afectan, especialmente en ámbitos sensibles como la salud, la educación o el empleo.
Finalmente, las organizaciones deben asumir la responsabilidad social del desarrollo tecnológico. Esto implica ir más allá del cumplimiento normativo y adoptar un enfoque de diseño centrado en el ser humano, en el que los valores como la equidad, la justicia y la dignidad sean parte integral del proceso desde el inicio.
Construir una IA justa e inclusiva no es solo una meta técnica: es una decisión política, cultural y social. Pero claro, no todas las empresas trabajan en la producción de sistemas de IA. El resto de empresas también tienen un rol ético fundamental, porque muchas decisiones importantes hoy se toman con apoyo de sistemas algorítmicos: desde seleccionar candidatos en un proceso de selección hasta la personalización de contenidos para sus clientes.
Utilizar IA sin cuestionarla puede ser tan problemático como implementar un mal diseño. Lo primero, por supuesto, es exigir transparencia y explicabilidad a los proveedores de tecnología. Antes de implementar un sistema basado en IA, las empresas deben saber cómo funciona, qué datos utiliza, qué sesgos puede contener y cómo se mitigan.
Las empresas deben formar a sus equipos en cómo hacer un uso ético y crítico de la IA, para que puedan detectar problemas de manera anticipada y tomar decisiones informadas. No se trata solo de saber usar la herramienta, sino de comprender sus implicancias sociales, legales y humanas.
Además, es importante aplicar principios de equidad, inclusión y no discriminación en todos los procesos en los que intervenga la tecnología. Esto significa revisar continuamente cómo impacta la IA en distintos grupos y tomar medidas para corregir desigualdades que se puedan estar produciendo, incluso si no fueron intencionales.
Por último, creo que las empresas pueden contribuir promoviendo una cultura de responsabilidad tecnológica, donde la innovación no se mida sólo por su eficiencia o rentabilidad, sino también por su capacidad de generar impacto positivo y respetar la dignidad de las personas.
-Otros campos en los que has trabajado son la intersección del conocimiento, la creatividad y el pensamiento lateral. ¿Cómo pueden estas perspectivas o estrategias ayudarnos a comprender mejor los desafíos que plantea la IA y encontrar soluciones innovadoras?
La inteligencia artificial no es solo un desafío técnico: es también un fenómeno cultural, social, ético y filosófico. Por eso, enfrentarlo requiere salir del pensamiento lineal y abrir espacio a otras formas de ver, conectar e imaginar. Ahí es donde la creatividad y la intersección de saberes se vuelven fundamentales.Siempre he considerado la intersección de áreas de conocimiento como un lugar en el que podemos encontrar respuestas diferentes a los problemas complejos del presente.
No se trata solo de sumar saberes, sino de crear espacios en común en los que se escuchen distintas formas de pensar, de sentir y de comprender el mundo. Esa capacidad de conectar ideas que provienen de ámbitos diversos —la filosofía, la ciencia, el arte, la experiencia cotidiana— es algo profundamente humano, y una de nuestras mayores fortalezas frente a los desafíos que plantea la inteligencia artificial.
En un mundo cada vez más dominado por automatismos y algoritmos, cultivar esa mirada transversal y creativa es una necesidad. Nos permite formular preguntas que los modelos matemáticos no pueden anticipar, imaginar futuros que no están en los datos, y sobre todo, devolverle centralidad a lo humano en los procesos de diseño y toma de decisiones.
Creo que es justamente en esa intersección —entre disciplinas, entre saberes, entre experiencias— donde encontraremos las respuestas más innovadoras, éticas y significativas para abordar los retos que nos plantea la IA hoy y en el futuro. Cuando hablamos de IA, por ejemplo, es evidente que muchos de sus riesgos —como los sesgos, la deshumanización o la concentración del poder— no se resuelven únicamente desde la lógica de la tecnología sino que necesitan de una mirada humana.
-¿Cuáles son las líneas de trabajo más prioritarias para desarrollar una IA más ética y alineada con nuestras necesidades sociales?
Para avanzar hacia una inteligencia artificial que tenga en cuenta lo humano, es fundamental abordar varios frentes de manera simultánea. No basta con ajustar algunos parámetros técnicos: se trata de repensarla, desde el propósito hasta el impacto que provoca.
Una primera línea de la que ya hemos hablado es la transparencia y la explicabilidad de los sistemas, y no se trata solo de una cuestión técnica, sino también de una cuestión de derechos: sin comprensión, no hay posibilidad real de control ni de reparación.
Para evitar los sesgos, la IA no puede seguir desarrollándose sólo en laboratorios o grandes corporaciones. Es necesario abrir espacios de deliberación pública y construir tecnologías con, y no solo para, las personas. Esto implica incorporar la voz de comunidades históricamente excluidas del debate tecnológico.
También es urgente establecer marcos de responsabilidad. No puede haber decisiones automáticas sin responsables. Cada actor —quien diseña, implementa o usa la tecnología— debe asumir su parte. Sin responsabilidad, no hay confianza ni justicia.
Nuestras necesidades sociales exigen un enfoque integral, interdisciplinar y profundamente humano, que ponga los valores colectivos en el centro del desarrollo tecnológico, esto es algo urgente.
-Durante tu trayectoria has abordado temas de liderazgo y espacios en la red. ¿Qué tipo de liderazgo considera necesario para gestionar la implementación ética de la IA en organizaciones y gobiernos?
Creo que necesitamos líderes que tengan en cuenta lo humano. Líderes humanistas que fomenten la ética, la empatía y la colaboración. No basta con tomar decisiones técnicas bien informadas: se requiere una mirada capaz de anticipar impactos sociales, escuchar voces diversas y asumir responsabilidades con claridad.
Es importante que los líderes del presente prioricen el bien común por encima de la eficiencia y el progreso, ya que eso nos dará confianza como ciudadanos en el uso de la tecnología. Es importante que entienda las consecuencias de las tecnologías en las vidas de los seres humanos y que no solo vea la tecnología como un concepto abstracto. Además, creo que deberá abrirse a la interdisciplinariedad y al diálogo con la sociedad civil, no solo con expertos o actores del mercado. Y por supuesto trabajar su pensamiento crítico día tras día.
Debe ser valiente, dispuesto a decir «no» cuando una tecnología no respete principios fundamentales, y capaz de construir marcos normativos y culturales que pongan la dignidad humana en el centro.
En un contexto de automatización creciente, el liderazgo humano sigue siendo irremplazable: no solo para decidir qué puede hacerse con la IA, sino especialmente qué debe hacerse —y qué no.
Para asistir al Congreso y escuchar las aportaciones de profesionales como María Cano, puedes apuntarte a las dos jornadas en las que se celebrará el evento, que tendrán lugar el 24 y 25 de abril, en los siguientes enlaces: