MónEconomia
Carme Torras: “Delegar responsabilidades en la IA puede hacernos perder empatía»

La tecnología avanza a un ritmo que a menudo desborda la capacidad de comprenderla y la inteligencia artificial es uno de los ejemplos más evidentes: una creación humana que, paradójicamente, obliga a repensar qué significa crear. Una herramienta que recuerda la importancia de garantizar que la innovación no avance más rápido que la reflexión ética que debe acompañarla. Carme Torras, doctora en informática, investigadora científica y especialista en inteligencia artificial y robótica, es la jefa del Grupo de Percepción y Manipulación Robotizada, Instituto de Robótica e Informática Industrial (CSIC-UPC). A lo largo de su trayectoria se ha centrado en la investigación de robótica inteligente y social; pero también ha estado comprometida con la promoción de la tecnoética. En 2008 publicó La mutación sentimental, una novela de ciencia ficción donde exploraba cómo la tecnología cambiará los sentimientos humanos en el futuro. Con esta obra, traducida al inglés por MIT Press, Torras obtuvo, entre otros, el Premio Manuel de Pedrolo en ciencia ficción. En 2024 la Generalitat de Catalunya le otorgó la Cruz de Sant Jordi. En 2025 la cuestión de la ética en la tecnología continúa más presente que nunca, una temática que se ha tratado en el AI Congress Barcelona que ha tenido lugar esta semana en la capital catalana donde Torras ha hablado sobre cómo debe ser el desarrollo tecnológico del futuro. 

Gran parte de su trayectoria, tanto científica como literaria, ha estado centrada en trabajar la parte social de la tecnología y la inteligencia artificial. ¿Cómo puede ser ética la IA?

La ética no es algo de las máquinas o de la inteligencia artificial, es una disciplina de las personas; por tanto, debe diseñarse de manera que se pueda hacer un uso ético. Por eso es muy importante la formación ética de las personas, sobre todo que desarrollan las tecnologías, y que luego dan la posibilidad a los usuarios que también deben formarse en su buen uso, para utilizarlas correctamente y en favor de las personas y de la sociedad en general. Para que haya ética se necesitan estos dos componentes: formación por parte de quienes desarrollan y formación en quienes la usan, y por supuesto la regulación a nivel de las administraciones. 

Por parte de quien desarrolla esta tecnología, ¿cree que las empresas que ahora mismo están trabajando en las herramientas de inteligencia artificial mantienen esta ética?

Las empresas lo que quieren, sobre todo, es ganar dinero; pero es cierto que la Unión Europea ha hecho un esfuerzo muy grande en regularlo con el AI Act, que califica las diferentes aplicaciones de inteligencia artificial en términos de niveles de riesgo. Con los riesgos más altos, hay una prevención mayor, obviamente, y a niveles más bajos, menos. Y ya se está popularizando el hecho de tener un sello de ética y de buenas prácticas. Creo que a la larga la mayoría de empresas optarán por este distintivo porque la ciudadanía también preferirá confiar en la tecnología desarrollada con este sello ético. 

Las tecnologías digitales requieren una normativa específica de otras tecnologías. Incluso se está hablando de adaptar, o extender, los derechos humanos a derechos humanos digitales, y aplicarlos a esta nueva esfera. 

Aparte de la ética del desarrollador y del papel que juega la regulación, también ha destacado la formación de los usuarios para usar estas herramientas. ¿Cree que quien usa las herramientas de inteligencia artificial lo hace con cierto compás moral?

Creo que las personas, sobre todo los jóvenes, no son muy conscientes de la dependencia en inteligencia artificial. Las personas adultas y ya formadas han aprendido a hacer ciertos procesos de otra manera, pero los jóvenes y los niños son uno de los temas que más me preocupan en cuanto a la pérdida de capacidades humanas por delegación a la inteligencia artificial, o a las máquinas en general. 

Al delegar tanto en estas tecnologías se pueden dejar de aprender determinadas capacidades como la empatía, por ejemplo. Si no se interactúa con amigos que tienen una experiencia vital importante, y solo se tienen amigos virtuales, se pueden perder estas habilidades. 

Cuando escribí mi novela, La mutación sentimental, hace más de quince años, ya estaba preocupada por este tema. En el libro se ve muy claro cómo en el futuro sería posible que se perdieran este tipo de capacidades como la comprensión o la admiración, toda la parte sentimental que es lo que nos hace humanos, en definitiva. Creo que actualmente está pasando un poco, y deberíamos ponerle remedio. 

Un cartel en el MWC donde se lee ‘La IA enciende la innovación’ / ACN

Para no perder la parte humana también se debe ser consciente de qué uso se hace de estas herramientas. ¿Se necesita más formación en IA para los usuarios de la misma manera que se aprende informática?

Completamente. La regulación por parte de las administraciones me parece muy bien, pero la formación me parece aún más importante. 

Se debe hacer un buen uso. Al igual que muchas personas han perdido la capacidad de cálculo, porque se hace con la calculadora, o de la ortografía, porque existe el corrector, ahora con herramientas como ChatGPT y tantas otras que casi piensan por nosotros, podemos llegar a perder la capacidad de pensar. 

Las relaciones que tenemos nos modelan, y si solo nos relacionamos con la tecnología todo el día, esta nos formará, nos acabará cambiando el cerebro y lo que es ser humano. Estamos en un momento clave para decidir y adquirir conciencia de dónde estamos y hacia dónde queremos ir, qué futuro queremos enfocar.

Sobre este futuro que se dibuja con el uso que se hace de las tecnologías y de la inteligencia artificial, ¿hacia dónde se tiende a enfocar la realidad?

Cuando se hace prospectiva para hablar de los escenarios de futuro que se plantean con la IA normalmente se nombran cinco. Hay un abanico de posibilidades, desde la extinción de la especie humana superada por las máquinas, un futuro de desigualdades, uno utópico donde la IA mejora radicalmente la vida humana, otro donde se hará una regresión porque la inteligencia artificial resulta insostenible energéticamente o económicamente, y la sociedad retrocede tecnológicamente, o un quinto que es la posición más intermedia y de evolución gradual en la que yo creo. Al igual que ha habido la revolución agraria, la revolución industrial, y hubo una revolución con internet, ahora estamos en una revolución de la inteligencia artificial. Cuando sepamos cómo utilizarlo de la manera correcta se incorporará a nuestras vidas como ha pasado en las otras ocasiones. 

Creo que es la evolución natural y seguiremos las pautas que se han seguido a lo largo de la historia. Pero quizás me equivoco. Aun así, yo creo que la tecnología puede aportar mucho y creo que sabremos hacer un buen uso.

Nou comentari

Comparteix

Icona de pantalla completa