Cristina Aranda: "La IA ha puesto a la humanidad entera a filosofar"
entrevista
Cristina Aranda: "La IA ha puesto a la humanidad entera a filosofar"
El suyo es uno de esos perfiles híbridos, a caballo entre humanidades y tecnología. Cristina Aranda Gutiérrez interviene en el programa Educar para el futuro de Ibercaja.
Exclusivo suscriptores
María Pilar Perla Mateo
NOTICIA
Cristina Aranda, doctora en Lingüística Teórica y Aplicada, cofundadora de la empresa Big Onion y de la asociación MujeresTech.
Enrique Cidoncha
Cristina Aranda Gutiérrez es cofundadora de la consultora Big Onion y de la asociación MujeresTech. Nació en Madrid (1976) y se crió en Huesca. Doctora en Lingüística Teórica y Aplicada, el suyo es uno de esos perfiles híbridos, a caballo entre humanidades y tecnología . Autora del libro 'Vidas futuras' (Aguilar), interviene en el programa Educar para el futuro.
El martes ofrece en Ibercaja Patio de la Infanta una conferencia titulada 'La IA y el lenguaje, una encrucijada fascinante'. ¿Qué le fascina más de esa confluencia?
El gran papel que las humanidades tenemos en la tecnología. Ayudar a que las máquinas entiendan nuestro increíble y apasionante sistema de comunicación, el lenguaje natural, es el gran reto. Me parece fascinante porque las máquinas hablan en ceros y unos, mientras la riqueza simbólica del lenguaje, la semántica, es de gran complejidad.
Realmente, en cómo nos tratamos, en cómo nos hablamos unas personas a otras, reside gran parte de la confianza que acabamos teniendo. ¿Ocurrirá lo mismo con las máquinas?
A las inteligencias artificiales (IA) actualmente les falta mucha calle y les sobran muchos sesgos. A día de hoy, les falta esa inteligencia social y emocional que tenemos las personas ya solo con mirarnos, porque en la comunicación humana están los silencios, el lenguaje no verbal..., el tono de voz interviene en la creación de significado tanto como las propias palabras. La IA se nutre de datos y le falta entrenar.
¿Lo conseguirá?
Estoy convencida de que sí, se está invirtiendo muchísimo en hacer que estas IA no sean tan tontas como actualmente. Cuando se definió el término 'inteligencia artificial' en la Conferencia de Dartmouth, en 1956, ya se hablaba de emular la inteligencia humana, aunque hay muchísimos retos. Como dice la gran Nuria Oliver, las IA pueden crear sonetos, pero no pueden pensar como una poetisa o un poeta. Estoy segura de que llegará una IA que parecerá que tiene sentimientos, parecerá que siente, pero no nos olvidemos que son máquinas, es una lavadora. Una herramienta, como apareció el fuego, como apareció la electricidad. La inteligencia artificial es una de las palancas principales de la actual revolución industrial, pero no deja de ser una herramienta. No hay que perder esto nunca de vista, por eso insisto en el papel de las humanidades, porque esto va de personas, no de tecnología. Es muy importante que las personas que están creando la inteligencia artificial piensen en generar una inteligencia artificial inclusiva y justa.
Te puede interesar
Una inteligencia artificial ética, responsable y bien regulada
Realmente es un trampantojo, ¿no?, porque encadena palabras, pero no entiende nada de lo que dice.
En los llamados 'large language models' (grandes modelos de lenguaje) no hay nadie en la torre de control, son entrenados a través de redes neuronales y lo que hacen es coger estos datos no estructurados, cogen elementos lingüísticos y los numerifican para que la máquina no 'entienda', sino que procese la información de forma eficiente. Ojo, porque se basan en la frecuencia de uso y también repiten los estereotipos, los sesgos que utilizamos. Si le pido a una IA generativa una imagen de genio, aparecen solo hombres. Por eso, es necesario que quienes trabajan con estas herramientas 'hackeen' estos sesgos y trabajen en la calidad del dato, que se aseguren de que los datos están bien equilibrados para evitar sesgos. Sobre todo en las primeras fases de entrenamiento es tan necesaria la ética y el espíritu crítico por parte de las personas que trabajan en IA. Yo siempre defiendo que vuelva la filosofía a las aulas.
¿Sería uno de los grandes retos?
El 80% de los datos, que son la materia prima de la inteligencia artificial, son lingüísticos y están muy sesgados. Y quienes toman decisiones en esta materia -porque la IA, como una lavadora, no es ni buena ni mala, depende del uso que se le da-, son hombres, blancos, de mediana edad, judeocristianos, heterosexuales, sin discapacidad, educados en las mismas universidades. Al tomar decisiones, piensan en el dinero, sin mirar el impacto social negativo. Y como no tenemos regulación, porque esto es el 'far West', ni tenemos un código deontológico, aquí vale todo. Se están desarrollando IA que generan 'fake news', que impactan en las democracias y en la salud de nuestros adolescentes. Es muy importante regular y exigir responsabilidad a las empresas.
Entonces, ¿se queda corta la legislación de la Unión Europea?
Más que quedarse corta, es poco precisa. Un código de circulación que fuera muy general no serviría de nada. Hace falta describir bien quién tiene la responsabilidad, incluida la responsabilidad penal, cuáles son los protocolos de testeo a la hora de de trabajar con inteligencia artificial. Para evitar que los algoritmos que utiliza tu empresa para decidir si dar un crédito o dar una ayuda social, estén discriminando. A día de hoy, hay regulación en cuanto a que determinados datos sensibles relacionados con la identidad de la persona, etcétera tienen que estar alojados en Europa, pero en cuanto a la IA en sí, las indicaciones son muy generales.
Oímos que la IA necesita perfiles diversos, tecnológicos y también de humanidades, pero ¿cómo trabaja uno de esos equipos multidisciplinares? ¿Quién hace qué?
Quienes vienen del ámbito legal, pueden trabajar en regulación; quienes trabajan en psicología o antropología, en el diseño, en el impacto, en la percepción de esa IA en la persona que la va a emplear, en el cliente final. En mi ámbito, el procesamiento del lenguaje natural, si vamos a automatizar un proceso donde hay mucha documentación, las personas que han estudiado filología, traducción, interpretación, o sea, que sabemos mucho del lenguaje, utilizamos determinadas herramientas para anotar los textos y ayudar a entrenar a la máquina para que 'entienda' ese texto y extraiga la información. Depende de tu ámbito de dominio de las humanidades, trabajas en unas tareas o en otras, siempre en colaboración con profesionales de la ingeniería. Ahí está la figura clave de personas que se llaman 'perfiles híbridos'. En un proyecto, son capaces de adecuar el mensaje para que todo el mundo trabaje en armonía, de forma cooperativa. Eso tiene una gran complejidad, ya que hay que saber neutralizar esos egos que muchas veces existen entre las diferentes áreas y ser capaz de traducir los diferentes lenguajes que hablan las diferentes áreas. Esto es lo que nos diferencia de las máquinas. Según el World Economic Forum, las 'top skills', las capacidades que más se van a pedir y se están pidiendo ya en las empresas son estas habilidades sociales y emocionales, personas que saben liderar y tener influencia social, influencia emocional en los equipos y que saben trabajar de forma eficiente con la comunicación.
Usted, ¿cómo llegó de la lingüística teórica y aplicada a la tecnología?
Fue de forma azarosa. Estaba en el paro y me llegó un cupón de descuento para hacer un curso de posicionamiento SEO, sobre cómo las personas buscamos la información en los buscadores. Para mí fue un descubrimiento darme cuenta de que lo que había estudiado en mi tesis se aplica en las 'keywords', en las estrategias de contenidos. Tuve mi epifanía, recuerdo que esa noche no dormí, y decidí hacer un máster en Internet Business en el ISDI, donde hoy soy profesora.
Si tuviera que elegir ahora, ¿volvería a matricularse en Filología Hispánica?
Sí, y en la Universidad de Zaragoza, donde descubrí el maravilloso mundo de la lingüística, con Francisco Hernández Paricio.
Acaba de publicar el libro 'Vidas futuras', sobre nuestra convivencia con las inteligencias artificiales. ¿Cómo será?
Esta tecnología nos ha hecho pararnos en seco y reflexionar. Nos ha puesto a filosofar. Es maravilloso que una tecnología haya puesto a filosofar a la humanidad entera. ¿Qué es el amor? ¿Podría enamorarme de una IA, como en la película 'Her'? Cuando me muera, ¿me van a poder replicar en un metaverso y, así, mis seres queridos podrán interactuar conmigo? ¿Las máquinas van a tener conciencia? ¿Cómo va a cambiar el sistema educativo? ¿Me ayudará la IA a evitar el envejecimiento y a realizar una medicina preventiva?
¿Fantaseamos demasiado -en positivo o en negativo-? Añada algo de realismo a nuestra visión de la IA.
Ya se está haciendo un uso increíble de la IA con un impacto positivo en las personas. Por ejemplo, el proyecto Stop, de la ingeniera gallega Ana Freire, está ayudando a detectar conductas suicidas en las redes sociales. La doctora Ana Freire ayuda a detectar casos de dislexia. Hay proyectos de inteligencia artificial con visión artificial aplicada a evitar pillajes en la entrega de alimentación en campos de refugiados. Sin embargo, se tiende más a lo apocalíptico, al temor a la automatización, a pensar que va a acabar con nosotras, pero estamos muy lejos de ahí. La IA es una herramienta que nos va a permitir vivir mejor, trabajar mejor y tener más tiempo libre. A veces se nos olvida, pero todo el mundo debería entender que si tiene un 'smartphone', ya utiliza la inteligencia artificial. Y nadie teme utilizar el Maps ni el audio de Whatsapp, simplemente es algo que nos ayuda a comunicarnos rápidamente y de forma eficiente.
Pero el potencial transformador de la IA está controlado por las grandes tecnológicas.
Hay autores, con los cuales coincidido, que hablan de feudalismo tecnológico. Hemos vuelto a un sistema feudal donde, en lo alto de la pirámide, en vez de la nobleza y el clero, están estas grandes tecnológicas, que tienen un impacto bestial y cuyos 'lobbies' son determinantes, decisivos. Tanto en Estados Unidos como en la Unión Europea, las propias infraestructuras de los gobiernos, de las Administraciones públicas, dependen de estas grandes tecnológicas.
Conforme a los criterios de