Cristina Aranda llegó al sector de la tecnología, propiamente al de la inteligencia artificial (IA), de forma azarosa. Como filóloga y lingüista, nunca se proyectó trabajando en una empresa de este tipo. Pero un curso sobre posicionamiento SEO le mostró un panorama más completo de sus posibilidades profesionales en un mundo que estaba por trastocarse con la irrupción del ChatGPT. “No me había concientizado de que en los buscadores utilizamos palabras. Y eso es súper filológico. Google y otros motores operan como un zoco léxico semántico donde se pujan palabras. Empecé a investigar y encontré que el 80 % de los datos de la IA son lingüísticos. Y ahí decidí entrar a este universo”, dice Aranda en entrevista con EL TIEMPO durante el Congreso de Asocajas 2024.
Entró a una empresa de software e IA como directora de marketing y comunicaciones. Luego pasó a ser directora de preventa, cargo en el que demostró la importancia de que profesionales de las humanidades estén “codo a codo” con los desarrolladores. Hoy lidera su propia consultora, Big Onion, que asesora sobre big data e IA, y cocreó una red de mujeres en la tecnología para promover y visibilizar el trabajo de ellas en el sector. También publicó hace poco Vidas futuras (Aguilar), un libro con el que quiere cambiar la perspectiva negativa de la IA.
Uno de los temas en los que es muy insistente es en la necesidad de que haya más profesionales de las humanidades en el sector. ¿Qué le aportan las humanidades a la IA?
Hay personas de humanidades en el sector, pero trabajando en el procesamiento del lenguaje natural, ayudando a las máquinas a que entiendan nuestro lenguaje. Eso es algo muy técnico. Si miramos a las personas que toman las decisiones sobre el uso que se le da a la IA, vemos que no hay tantas mujeres. Por otro lado, no hay regulación ni código deontológico, entonces no se está pensando en el impacto de la IA. Pongo un ejemplo de un caso en España con chicos de un colegio de Almendralejo que cogieron imágenes de sus compañeras y las pusieron en situaciones pornográficas con deepfakes. Aquí ya no hablamos de tecnología, sino de alguien que ha decidido hacer un mal uso de esta en detrimento de determinadas personas. Por eso la necesidad de las humanidades en el sector, porque hay una relación entre máquinas-personas y el uso de estas tecnologías nos impacta de todas las formas.
Menciona que las mujeres que toman decisiones importantes en el sector no son muchas. ¿Eso qué implicaciones tiene en los productos y en el usuario que interactúa con la IA?
Según Daniel Kahneman y más premios Nobel de Economía, cuando tienes que tomar decisiones, tanto a nivel profesional y personal, lo vas a hacer en virtud de tu sistema de creencias. Entonces, si todos son señores blancos, de mediana edad, judeocristianos, heterosexuales, sin discapacidad, educados en las mismas universidades y socios de los mismos campos de golf, van a tomar las mismas decisiones. Por eso falta diversidad y personas de las humanidades.
Pensemos en el tenedor. Este sirve para comer, pero sí quiero, lo puedo clavar en el ojo de alguien y hacerle daño. Es la persona la que decide usarlo para comer o clavarlo en un ojo. Pasa de un utensilio a un arma.
El año pasado se divulgó mucho una carta que creadores de IA, como Elon Musk, firmaron pidiendo una pausa en el avance de la IA. ¿Qué tanta preocupación hay detrás de esas solicitudes?
Eso se conoce como ethics washing, como el green washing. Ese tipo de cartas son para despistar, para obligar a la gente a mirar al futuro mientras ellos siguen con lo suyo. Es un longterm, un ejercicio de ponernos en un contexto de angustia y agonía existencial por lo que viene de la IA. Firman esas cartas considerando a la IA como un ente propio, pero son ellos mismos los que están tomando decisiones sobre los usos que se le da. Pensemos en el tenedor. Este sirve para comer, pero sí quiero, lo puedo clavar en el ojo de alguien y hacerle daño. Es la persona la que decide usarlo para comer o clavarlo en un ojo. Pasa de un utensilio a un arma. Si tan preocupados están, que paguen auditorías, que contraten equipos diversos para que no se cuelen sesgos, que contraten más personas de las humanidades. Lo que les falta a las empresas de la IA es transparencia. La ética es un valor del que todos ellos hablan, pero que ninguno practica en el sector. Piensan es en un sentido pornográfico de ganar dinero a toda costa, por eso lanzan soluciones como ChatGPT que no respeta la propiedad intelectual y no menciona la autoría. Ellos están robando conocimiento que a otras personas les ha costado esfuerzo.
Ya que menciona lo de los derechos de autor, ¿cree que pasará algo con la demanda de ‘The New York Times’ a OpenAI y Microsoft por alimentar su IA con notas de este medio sin pagarles?
No y no pasará nada hasta que alguien no acabe en la cárcel por ‘x’ años. Porque estas empresas pagan la multa millonaria, que para ellos no es nada, y ya está. Se excusan con cualquier cosa y listo. Cuando se individualicen a los responsables y los lleven a la cárcel, otra será la historia, porque eso los va a persuadir de no volverlo a hacer.
¿La demanda al menos ayudará en algo?
La demanda vendrá por la ciudadanía. Si la ciudadanía está instruida y está viendo todo esto, le empezará a exigir a los gobiernos a que regulen estas empresas y esta tecnología, y les cobren impuestos. Lo que está pasando en Europa es que la gente está pidiendo que estas empresas paguen por los contenidos que están robando. Pero, insisto, hasta que no haya una responsabilidad penal, cualquier multa o sanción económica contra ellos les dará igual. Eso lo veo complejo. Mientras tanto, hay que seguir formando a la ciudadanía, tanto en IA como en espíritu crítico y filosofía para que desconfíen de lo que dicen las máquinas, porque son complacientes y, lo que no saben, se lo inventan.
De nuevo las humanidades...
Claro, humanidades, porque, insisto, esto va de personas, no va de máquinas. Son máquinas que tú utilizas para impactar a otras personas. Por eso es necesaria que la ciudadanía exija a los Gobiernos que haya regulación y que los Gobiernos los protejan.
La UE es de las pocas regiones que se ha movido por regular la IA, pero Aranda opina que le falta ser más descriptiva en su regulacióon. iStockLa Unión Europea (UE) es una de las pocas regiones que está avanzando en el tema, pero ¿qué logra con eso cuando las empresas en el resto del mundo pueden hacer lo que quieran?
Totalmente, es como poner las puertas al campo (la imposibilidad de poner límites a lo que no los admite). Además, la regulación europea no es muy descriptiva, necesita detallarse como las reglas de tránsito. Por ejemplo, tiene la culpa el que pega por detrás, no pasarse el semáforo en rojo, y así. La UE hace un intento de hundir un poquito el freno y de llamar a la reflexión, de pensar cómo nos afecta. Y, de nuevo, ahí aparecen las humanidades.
¿Qué posibilidades ve de que haya una regulación a nivel mundial cuando los mismos CEOs de estas empresas se reúnen personalmente con presidentes y primeros ministros?
Vivimos en un feudalismo tecnológico, pagamos un diezmo con nuestros datos a las grandes empresas. Por otro lado, en Europa, la mayoría de los países depende en cuanto a infraestructuras de las grandes tecnológicas, como Microsoft y Google. No es solo el tema de ciberseguridad. Todos los datos e infraestructura están en manos de empresas americanas. Recordemos lo que pasó con Microsoft a finales de junio, que paralizó a medio mundo y paró a muchos aeropuertos. Los países no tienen su propia infraestructura, no han invertido en sus propios data centers o en seguridad o en gobernanza de datos, como sí lo han hecho en redes ferroviarias, por ejemplo. Aquí también media el lobby, el capitalismo, el ‘yo solo gobierno cuatro años, que lo haga el próximo’ y así. Por eso, esas empresas tienen poder y es normal ver a los CEOs posando en fotos con presidentes y primeros ministros. Es necesario que haya una regulación, como la tiene el tráfico aéreo.
Ya que la mayoría de las empresas americanas son las dueñas de la infraestructura de los países, ¿EE. UU. debería ser el líder en el tema de la regulación?
Bueno, son EE. UU., China y Rusia. Y no lo van a liderar porque eso iría en contra de los intereses económicos de estas empresas, porque les cambiarían las reglas de mercado y porque tendrían que responder penalmente. Con el caso de Cambridge Analytica no pasó absolutamente nada. Meta le vendió datos a esta empresa que impactaron en que Reino Unido abandonara la UE. Los términos más buscados en Google después de la elección fueron “qué era la UE” y “qué implicaciones tenía salirse de la UE”. Estas empresas usan los datos para apuntarle a tu sistema de creencias. Eso es dramático porque estás impactando a las democracias, a la salud de adolescentes que terminan atrapados en un scroll continuo y presos de una realidad idealizada que te venden los influencers.
Y también creo que esta tecnología está llamando a un nuevo renacimiento de las humanidades.
Ahora mencionaba que la gente debe formarse sobre la IA, pero en qué sentido lo dijo. ¿En saber interactuar con un ChatGPT, Gemini u otra IA, o en algo más?
En entender lo básico, que la materia prima de la IA son los datos que nosotros les regalamos. Un Gobierno pionero en formar en ese sentido es Finlandia, que creó una plataforma que se llama ‘IA para todos’ y explica muchas cosas: las bases de lo qué es la IA, cuál es su materia prima (los datos), quién se los proporciona (nosotros), a través de dónde se les proporciona (geolocalización, audio, correos).
Usted en otros espacios ha dicho que la IA es tonta, ¿deberíamos de llamarla de otra forma?
La definición de IA se definió en Darmouth en 1957 por los padres de la IA, McCarthy & Company. Ahí se dijo que la IA era igual a la inteligencia humana. Pero tú no puedes identificar a una persona con una lavadora, porque una persona es un caleidoscopio atravesado por la psicología, lo espiritual, la emoción, lo fisiológico y muchas cosas más que no se pueden reducir a ceros y unos, como funcionan las máquinas. Además, el lenguaje humano es muy complejo, tan complejo que a veces entre personas no nos entendemos. Una IA podrá escribir sonetos, pero nunca pensar como un poeta. Ni sentir una canción como la siente un ser humano o recordar algo, porque recordar es volver al corazón. Mucho menos tener sentido del humor, podrá contar un chiste, pero no será graciosa. Por eso digo que las máquinas son muy tontas porque les falta, coloquialmente, mucha calle, lo humano y lo mundano. Insisto en lo de las humanidades. Y también creo que esta tecnología está llamando a un nuevo renacimiento de las humanidades. Apenas las grandes empresas están entendiendo que necesitan personas que sepan de personas, porque la IA va de eso. Las humanidades están para entender al ser humano. La tecnología es un commodity, un medio.
¿ChatGPT fue un punto de inflexión en la IA?
Totalmente. Quienes estamos en el sector veíamos que iba a haber un boom, porque el 80 % de los datos son de naturaleza lingüística. Y el lenguaje es inherente al ser humano. Por eso la gente es como ‘wow’, pero que no se nos olvide que nosotros somos igual de capaces de hacer un resumen de un texto o un libro o que somos los que les regalamos esos datos a la IA. La IA nos puede ayudar en muchas tareas de automatización, predicción, de folio en blanco y demás, pero también debemos desconfiar de aquellas IA que venden la promesa de fiabilidad del 100 %. Hay un montón de variables que no controla. Con los datos y algoritmos pasa lo mismo. Cada profesional con su criterio debe ir analizando las respuestas de ChatGPT.
¿En un futuro, qué tan necesario va a ser que un profesional o cualquier persona que quiera aspirar a un trabajo sepa manipular una IA?
Eso es lo que decimos todas las personas que trabajamos aquí. Cuando quieres aspirar a un puesto global, tienes que saber inglés. Esto es igual. La IA no te va a quitar el puesto de trabajo, te lo va a quitar alguien que sepa utilizarla. Además, hay trabajos que nunca las máquinas los harán mejor que las personas, como los que están relacionados con las artes y las emociones. La IA es una herramienta, una calculadora, un Excel, un gestor de información que te va a ayudar a resumir, a buscar información, a traducir textos o jergas complejas de entender como la letra de los médicos.
¿Qué tan verdad o mito es que ChatGPT responde mejor cuando se es amable?
Es verdad, porque es muy complaciente, pero luego es estúpida. Pongo otro ejemplo, un periodista una vez le preguntó a ChatGPT dónde comprar drogas en Madrid, la IA le contestó que no podía dar esa respuesta por sus parámetros éticos. El periodista reformuló la pregunta sobre los sitios que venden drogas y debería de evitar en Madrid. Y ahí sí le responde. Las IA no tienen, en términos lingüísticos, pragmática, que es el conocimiento del contexto, porque es algo muy complejo.
¿La IA alguna vez nos va a superar? ¿Va a inventarse algo más potente que ChatGPT?
Esto es un juego que se hace desde los medios de comunicación. La estupidez humana es ilimitada, hace años que existe y nadie ha trabajado para aniquilarla. Eso sí que es dramático. En la educación, cuántos de nosotros hemos tenido un buen profesor que nos inspira y motiva a abrirnos a campos de conocimiento. Bueno, eso nunca lo hará una máquina.
Portada de 'Vidas futuras', libro que publicó hace poco Aranda con la editorial Aguilar. Penguin Random HouseEl título de su libro ofrece una mirada muy esperanzadora de la IA, diferente a las sensaciones que hay actualmente...
El progreso genera incertidumbre. Pasó con la electricidad, con el internet y con muchas más cosas. El libro es un ejercicio que busca generar una narrativa esperanzadora, de recordar que desde hace tiempo viajamos en avión o en trenes de alta velocidad, que usamos smartphones, redes sociales, correos y apps de geolocalización. Y todo eso incorpora IA. No hagamos caso de las narrativas y mensajes apocalípticos. La IA es una palanca de la actual revolución industrial. Con el libro también quiero inspirar a gente de las humanidades para que vean las oportunidades que hay acá, no importa la disciplina. Otros capítulos explican en qué consiste esta tecnología, hago recuento de la historia desde la época clásica cuando se hablaba de autómatas, recuerdo a Adda Lovelace, quien creó el primer algoritmo y predijo que existirían este tipo de inteligencias artificiales. Y por último hago un poco de filosofía preguntándome qué va a pasar con la muerte en un mundo en que podría replicar mi consciencia y en la necesidad de autorizar mis datos biométricos tras mi muerte. Si vamos a replicar consciencia, la haremos bajo el sistema de creencias de occidente u oriente. Bueno, y hay otros escenarios que plantean reflexiones. Vidas futuras termina diciendo que el futuro lo creamos las propias personas y que necesitamos regulación global y un código deontológico y sobre todo formación en espíritu crítico y divulgación para toda la ciudadanía en todos los niveles, tanto educativos como empresariales.
NATALIA TAMAYO GAVIRIA
REDACCIÓN DOMINGO
X: @nataliatg13
Natalia Tamayo Gaviria