Esta iniciativa pionera pretende descifrar el lenguaje de las ballenas
Con inteligencia artificial y un estudio minucioso de los cachalotes, este equipo de científicos espera comprender de qué hablan estos mamíferos marinos.
Los cachalotes, como este adulto y una cría que nadan cerca del país caribeño de Dominica, se comunican con chasquidos. En la que podría ser la mayor iniciativa de comunicación interespecífica de la historia, un equipo de científicos planea utilizar el aprendizaje automático para tratar de descifrar qué se dicen estos animales.
En una mañana fresca de primavera en 2008, Shane Gero escuchó a un par de ballenas charlando. Gero, biólogo canadiense, había estado rastreando a los cachalotes en la costa de la isla caribeña de Dominica cuando aparecieron dos machos, crías de la misma familia, no muy lejos de su barco. Los animales, apodados Drop y Doublebend, restregaron hocicos y empezaron a hablar.
Los cachalotes «hablan» con chasquidos, que producen en series rítmicas llamadas codas. Durante tres años, Gero ha utilizado grabadoras submarinas para capturar las codas de cientos de ballenas. Pero nunca las había oído de este modo. Las ballenas emitieron chasquidos durante 40 minutos, a veces mientras permanecían inmóviles, otras girando sus cuerpos grises como si fueran las hebras de una cuerda, pero rara vez se quedaban en silencio. Gero nunca había deseado tanto entender lo que dicen las ballenas. Le parecía estar escuchando a escondidas a unos hermanos que se peleaban en su habitación. «Hablaban y jugaban y se comportaban como hermanos», afirma. «Era evidente que pasaba algo».
A lo largo de los próximos 13 años, Gero, explorador de National Geographic, grabaría y conocería a cientos de cachalotes. Pero, una y otra vez, recordaba la revelación que tuvo mientras escuchaba a Drop y Doublebend: si los humanos pudieran descifrar el lenguaje de las ballenas, o incluso determinar si poseen algo que realmente puede denominarse lenguaje, habría que emparejar los chasquidos con el contexto. La clave para descodificar la comunicación de las ballenas sería saber quiénes son los animales y qué hacen cuando emiten sus sonidos.
El biólogo marino Shane Gero ha conocido a cientos de cachalotes en Dominica, entre ellos estos de la denominada Unidad Familiar F. Junto al equipo del proyecto CETI, espera emparejar los chasquidos de las ballenas con sus comportamientos para revelar el significado de sus vocalizaciones.
Uno de los deseos más imperecederos de la humanidad ha sido la encantadora idea de que quizá algún día podamos conversar con otra especie. En los años transcurridos desde la visión de Gero, y en parte debido a ella, la posibilidad de salvar la brecha comunicativa ha sido cada vez menos extravagante. El lunes, un equipo de científicos anunció que se había embarcado en una odisea de cinco años basada en el trabajo de Gero con un proyecto de investigación puntero para tratar de descifrar qué se dicen los cachalotes.
Esta iniciativa habría sido considerada una locura hace solo unos años, pero depende exclusivamente de Gero. El equipo incluye a expertos en lingüística, robótica, aprendizaje automático e ingeniería fotográfica. También se apoyarán en los avances de la inteligencia artificial, que ya es capaz de traducir un idioma humano a otro sin la ayuda de una piedra de Rosetta o una clave. La misión, llamada proyecto CETI (siglas en inglés de Iniciativa de Traducción de Cetáceos), es probablemente el mayor esfuerzo de comunicación entre especies de la historia.
Estos expertos ya están trabajando para construir dispositivos especializados de grabación de vídeo y audio. Su objetivo es grabar y analizar millones de codas de ballenas. Esperan sacar a la luz la estructura subyacente del parloteo de las ballenas: ¿de qué unidades se compone la comunicación de las ballenas? ¿Existe una gramática, una sintaxis o algo análogo a las palabras y las frases? Estos expertos observarán el comportamiento de las ballenas cuando emiten o escuchan chasquidos. Y mediante los avances en el procesamiento del lenguaje natural —la rama de la inteligencia artificial gracias a la que Alexa y Siri responden a las órdenes de voz—, los investigadores tratarán de interpretar esta información.
No te pierdas el documental Los secretos de las ballenas, una serie original de Disney+ de National Geographic que se estrenará el Día de la Tierra, el 22 de abril de 2021.
Nunca se ha intentado nada parecido. Hemos adiestrado perros para que respondan a nuestras órdenes y los delfines han aprendido a imitar los silbidos humanos. Hemos enseñado a chimpancés y gorilas a utilizar el lenguaje de signos y a los bonobos a responder a preguntas pulsando símbolos en un teclado. En Seúl, un elefante llamado Koshik puede decir algunas palabras en coreano, sí, es cierto.
Pero el objetivo de este proyecto no es conseguir que las ballenas entiendan a los humanos. Se trata de entender lo que se dicen los cachalotes mientras hacen su vida en el medio natural.
«Suenan como el código morse»
El proyecto comenzó con otro biólogo marino y con una idea sencilla: suelen producirse grandes avances cuando colaboran los mejores expertos de diferentes disciplinas que están avanzando rápidamente.
David Gruber también es explorador de National Geographic, pero sus intereses llevan mucho tiempo traspasando las fronteras tradicionales. Este profesor de biología y ciencias ambientales de la Universidad de la Ciudad de Nueva York ha utilizado submarinos para examinar arrecifes de coral. Por si fuera poco, también ha encontrado una tortuga marina biofluorescente en las Islas Salomón, ha descubierto que los bancos de peces linterna utilizan su luz para coordinar sus movimientos, ha estudiado las moléculas que hacen que los tiburones gato y algunas anguilas brillen y ha construido una cámara para imitar la visión de un tiburón. En una ocasión, colaboró con un robotista para desarrollar un delicado dispositivo de seis tentáculos que permite a los investigadores capturar medusas sin hacerles daño.
“Los lingüistas sostienen que incluso los animales no humanos más inteligentes carecen de un sistema de comunicación que pueda llamarse lenguaje. Pero ¿podrían las ballenas ser la excepción?”
En 2017, cuando era investigador en el Instituto Radcliffe de la Universidad de Harvard, Gruber, que era buzo, se quedó fascinado con los cachalotes, los odontocetos más grandes, tras leer un libro acerca de unos buceadores que las estudian. Un día, cuando escuchaba codas de ballenas en su portátil, pasó por allí Shafi Goldwasser, otra investigadora en Radcliffe.
«Son muy interesantes, suenan como el código morse», recuerda que dijo Goldwasser. La científica había dado charlas para un grupo de investigadores de Radcliffe acerca del aprendizaje automático, un subcampo de la inteligencia artificial que emplea algoritmos para encontrar y predecir patrones en los datos. En la actualidad, el aprendizaje automático está en muchas cosas, como los motores de búsqueda, las aspiradoras Roomba o los vehículos autónomos. Goldwasser instó a Gruber a compartir los chasquidos con el grupo de Radcliffe.
Este grupo incluía a mentes informáticas muy agudas. Goldwasser es informática y una de las principales expertas mundiales en criptografía. Michael Bronstein, director de aprendizaje automático en el Imperial College London, creó una empresa de aprendizaje automático que más adelante vendió a Twitter para detectar bulos. Al grupo le intrigó la presentación de Gruber. ¿Podría el aprendizaje automático ayudar a los humanos a entender la comunicación animal?
Gruber vislumbró una oportunidad. Había pasado una carrera ecléctica intentando hacer que las personas vieran la magia de los océanos, concentrándose en las cosas que le parecían más destacables, como los corales, la biofluorescencia y las medusas. Quizá este era el proyecto que cautivaría la imaginación del público e inspiraría a las personas a deleitarse del misterio y las maravillas del mar. «Mi idea era que si podía hacer que la gente se enamorara de las medusas, podría enamorarse de cualquier cosa», dice Gruber. «Pero hay algo en las ballenas que pica la curiosidad humana».
Gruber tenía que hablar con alguien que entendiera de ballenas. Así que buscó información sobre Gero, fundador del Dominica Sperm Whale Project, que hace un seguimiento de la dinámica familiar de las ballenas, y le envió un correo electrónico. Gero accedió a escuchar la idea de Gruber.
Los lingüistas sostienen que incluso los animales no humanos más inteligentes carecen de un sistema de comunicación que pueda llamarse lenguaje. Pero ¿podrían las ballenas ser la excepción? El lenguaje humano evolucionó al menos parcialmente para mediar las relaciones sociales y Gero ha demostrado que los cachalotes tienen vidas sociales complejas.
Los cachalotes tienen los cerebros más grandes del reino animal, con seis veces el tamaño de los nuestros. Viven en redes sociales dominadas por hembras e intercambian codas en una especie de dueto intermitente, sobre todo cuando están cerca de la superficie. Se dividen en clanes de cientos o miles de miembros, que se identifican mediante codas de chasquidos diferentes. En cierto modo, los clanes hablan en dialectos diferentes. Las ballenas también se identifican a partir de patrones de chasquidos específicos, que parecen utilizar a modo de nombres. Y aprenden sus codas de forma similar a cómo los humanos aprendemos el lenguaje, balbuceando los chasquidos cuando son jóvenes hasta que captan el repertorio de su familia.
A lo largo de años, Gero ha identificado cientos de individuos de dos grandes clanes en la costa de Dominica. Puede reconocer a muchos solo con mirarlos, a partir de las marcas únicas de las aletas de la cola. Analizando el ADN de las heces y las muestras de piel de las ballenas, ha identificado a abuelas, tías, hermanos y hermanas.
Además, ha mantenido registros detallados que incluyen miles de grabaciones anotadas de chasquidos que describen quién habla, a qué clan pertenece, con quién está y qué hace en ese momento.
Aquello era más que suficiente para hacer una prueba. Aplicando las técnicas de IA a algunos de los archivos de audio de Gero, los colegas de Gruber expertos en aprendizaje automático entrenaron a un ordenador para identificar a cachalotes individuales a partir de sus sonidos. El ordenador acertó más del 94 por ciento de las veces.
Entusiasmado, Gruber reunió un grupo de trabajo para desarrollar este resultado prometedor. Además de Gero y los colegas informáticos de Gruber, está el biólogo de cetáceos Roger Payne, ganador de la beca MacArthur, que había popularizado los sonidos hipnóticos de las ballenas jorobadas en las décadas de 1960 y 1970, lo que contribuyó a iniciar el movimiento «Save the Whales». También está Robert Wood, un robotista de Harvard que, junto con Gruber, construyó el dispositivo para capturar medusas y cuyo laboratorio ha construido un origami autoplegable y un dron volador del tamaño de un insecto. Y está Daniela Rus, otra beneficiaria de la beca MacArthur y directora de ciencias informáticas e inteligencia artificial en el Instituto Tecnológico de Massachusetts.
Estuvieron de acuerdo en que, por primera vez, era posible que los humanos contaran con las herramientas necesarias para empezar a entender mejor lo que dicen los animales, incluso los que viven en la oscuridad y cazan calamares a cientos de metros bajo la superficie del mar.
El hecho de que estos animales recurran casi exclusivamente en la información acústica podría simplificar la tarea. En un restaurante situado a pocas manzanas de Harvard Yard, el equipo esbozó planes para un nuevo programa Apolo, centrado en la traducción del habla de estos alienígenas de las profundidades. En un momento dado, alguien sugirió que, si salía bien, su trabajo podría proporcionar un marco de referencia para conversar con la vida extraterrestre. «Miré a mi alrededor esperando que alguien se riera y no vi más que un montón de gente asintiendo», dice Gruber.
El aprendizaje automático podría impulsar los avances
Esto no significa que los científicos tengan la suerte de su lado.
En las últimas décadas, hemos aprendido mucho sobre las formas únicas en que se comunican los animales. Los perritos de las praderas varían sus vocalizaciones dependiendo de si se acercan halcones, coyotes o personas. Hasta producen sonidos diferentes dependiendo de si la persona que ven es alta o baja, o si viste de blanco o de rojo. Algunas especies de monos emiten sonidos de alarma distintos según el tipo de peligro. Chillan de forma diferente cuando se acercan los leopardos que cuando ven un águila.
Cada vez más, los descubrimientos sobre la comunicación animal cuentan con la ayuda de la AI. Gracias al aprendizaje automático, en 2016 un equipo de investigadores descifró las diferencias entre las vocalizaciones de los murciélagos de la fruta egipcios que se pelean por la comida y los que se disputan los lugares de descanso. Las ratas y los ratones se comunican muy por encima del alcance del oído humano. En 2019, al transformar esos sonidos en sonogramas y pasar las imágenes por redes neuronales artificiales inspiradas, a grandes rasgos, en los circuitos del cerebro humano, los científicos vincularon los distintos sonidos a diferentes comportamientos, como huir del peligro o tratar de atraer a una pareja. Los investigadores llamaron a su algoritmo «DeepSqueak».
Los cachalotes solo pasan unos 10 minutos de cada hora cerca de la superficie, así que los investigadores están construyendo un conjunto de grabadoras de sonido y vídeo para capturar lo que se dicen en las profundidades. A continuación, la inteligencia artificial buscará patrones en sus conversaciones.
Es posible obtener esta información porque los avances en el aprendizaje automático han llegado a la velocidad del rayo en la última década, a medida que los algoritmos se vuelven cada vez más sofisticados y se dispara la capacidad de procesamiento de los ordenadores.
Parte del aprendizaje automático es «supervisado», lo que significa que los científicos dan a los algoritmos ejemplos anotados por humanos para entrenarlos. Mediante el análisis de miles de imágenes etiquetadas como «gatos», por ejemplo, los algoritmos pueden aprender a reconocer gatos en otras fotografías.
Pero las redes neuronales pueden detectar patrones en cosas como el lenguaje sin la ayuda inicial de los humanos. Introduciendo millones de noticias de Google News en una red, así como frases a las que les faltan elementos —«_ o no ser»—, esa red fue capaz de construir un modelo matemático del lenguaje. A continuación, dicho modelo aprendió los vínculos entre palabras, como que «París» es a «Francia» lo que «Roma» es a «Italia». Ahora, estos modelos son una piedra angular del procesamiento del lenguaje natural, que se emplea, por ejemplo, para predecir si la reseña de un restaurante en Yelp es negativa o para detectar el correo basura.
Con todo, existen muchos retos. La traducción automática es posible para los humanos, en parte, porque las asociaciones de palabras suelen ser similares en varios idiomas; «luna» y «cielo» están relacionadas del mismo modo que las palabras francesas «lune» y «ciel». «Con las ballenas, la gran incógnita es si este elemento está presente siquiera», afirma Jacob Andreas, experto en procesamiento del lenguaje natural en el MIT y miembro del equipo del proyecto CETI. «¿Existen unidades mínimas dentro de este sistema de comunicación que se comporten como el lenguaje, y hay normas para unirlas?».
Para averiguarlo, el equipo quiere emplear diversas técnicas. Por ejemplo, una de las redes intenta esbozar un sistema de reglas del lenguaje de forma aleatoria. A continuación, comprueba si las «unidades» de conversación cumplen esas reglas. Si no las cumplen, la ajustan y lo intentan de nuevo. Los ordenadores llevan a cabo «este proceso de ajuste y validación de reglas muy rápido, repitiéndolo miles o millones de veces para producir un conjunto de reglas que expliquen los datos», señala Andreas.
Por supuesto, para avanzar los investigadores tendrán que reunir suficientes datos. El aprendizaje automático requiere grandes cantidades de información, pero Gero solamente cuenta con varios miles de grabaciones. Es probable que para detectar patrones en el lenguaje de las ballenas se necesiten decenas de millones de codas, o quizás más.
Además, como sospechaba Gero con Drop y Doublebend, los científicos creen que tendrán que relacionar la comunicación con el comportamiento. ¿Existe una coda específica que aparece antes de la caza o una secuencia que se realiza cuando las ballenas deciden aparearse?
«Es el problema de la fiesta», dice Gruber. Si se colocan unos cuantos micrófonos en una fiesta, se captarán fragmentos de las conversaciones. Pero si se observa a la gente —siguiendo el rastro de quién le toca el brazo a quién, quién busca una mejor compañía en la sala— «toda la escena empieza a cobrar más sentido», dice Gruber.
Revolucionando el estudio de la comunicación animal
El lunes, el equipo reveló los pasos principales que tomarán para dicho fin. Los líderes del CETI han empezado a colaborar con Dominica para desplegar más tecnologías de supervisión de ballenas en las aguas del país. El CETI también ha sido nombrado Proyecto Audaz TED, vinculando la iniciativa con ocho grandes donantes filántropos interesados en las ideas atrevidas. El equipo también ha recibido financiación de la National Geographic Society.
Los investigadores del CETI han pasado un año desarrollando un conjunto enorme de sensores submarinos de alta resolución que grabarán sonido las 24 horas del día a lo largo de una zona vasta del área de estudio de Gero. Tres de estos sistemas de escucha, cada uno fijado a una boya en la superficie, descenderán hasta el fondo, con hidrófonos cada varios cientos de metros.
“Se trata de escuchar a los cachalotes en su propio entorno, en sus propios términos. Es la idea de que queremos saber lo que dicen, que nos importan.”
El Exploration Technology Lab de National Geographic y Wood, el robotista de Harvard que también es explorador de National Geographic, ayudaron a diseñar una nueva versión de la cámara de vídeo que se fija a las ballenas con ventosas. A diferencia de versiones anteriores, esta cámara puede aguantar a las profundidades a las que cazan los cachalotes, filmar en oscuridad total y grabar audio de alta calidad.
En el MIT, Rus trabaja en otros componentes robóticos para desarrollar drones aéreos, flotantes y submarinos que puedan grabar sonido y vídeo sin molestar. Hace poco, ayudó a construir un robot nadador que se desplaza de forma silenciosa e imita los movimientos ondulantes de la cola de los peces de arrecife.
«Queremos saber todo lo que podamos», dice Gruber. «¿Qué tiempo hace? ¿Quién habla con quién? ¿Qué ocurre a 10 kilómetros de distancia? ¿Está la ballena hambrienta, enferma, embarazada, apareándose? Pero queremos ser tan invisibles como podamos mientras lo hacemos».
Los expertos externos afirman que el CETI podría revolucionar elementos de la investigación sobre la fauna salvaje. Janet Mann, profesora de la Universidad de Georgetown que lleva décadas estudiando delfines en Australia, afirma que el proyecto podría ser «pionero para los cachalotes, pero también para el estudio de otros sistemas de comunicación animal».
Michelle Fournet, ecóloga acústica de la Universidad de Cornell, afirma que el proyecto aborda una dificultad fundamental de la investigación con animales. Las personas, científicos incluidos, suelen ver patrones humanos en el comportamiento de los animales. «Vemos a una ballena jorobada agitando la aleta pectoral y pensamos que está saludándonos», dice. Pero, normalmente, las ballenas jorobadas están siendo agresivas. La inteligencia artificial puede eliminar nuestros prejuicios y detectar el significado de la comunicación y el comportamiento con mayor precisión, señala Fournet.
Para los investigadores del CETI, gran parte del valor de este proyecto estará en el propio viaje de descubrimiento. La misión Apolo llevó a los humanos a la Luna, pero por el camino se inventaron las calculadoras, el velcro y los transistores, y contribuyó a poner en marcha la era digital que ha hecho posible este proyecto. Aunque el CETI no logre descifrar el código de los cachalotes, los investigadores tendrán que lograr importantes avances en el aprendizaje automático, la comunicación animal y nuestra comprensión de una de las criaturas más misteriosas del mundo.
Y, dentro de unos años, si se aclara la estructura de las vocalizaciones de los cachalotes, el equipo podría intentar comunicarse con otras ballenas, no para mantener un diálogo entre especies, sino para ver si las ballenas responden de forma predecible. El objetivo sería validar la evaluación del equipo sobre la comunicación de los cachalotes.
«Surge la pregunta de qué les diríamos. Eso no tiene sentido» dice Gero. «Eso presupone que tienen un lenguaje para hablar de nosotros y de los barcos o del tiempo o de lo que sea que queramos preguntarles».
Gruber coincide. «No se trata de hablar con ellos», dice. «Se trata de escuchar a los cachalotes en su propio entorno, en sus propios términos. Es la idea de que queremos saber lo que dicen, que nos importa».
La National Geographic Society, comprometida con revelar y proteger las maravillas de nuestro mundo, ha financiado a los exploradores David Gruber, Shane Gero y Robert Wood. Lee más información sobre el apoyo de la Society a los exploradores oceánicos.
Este artículo se publicó originalmente en inglés en nationalgeographic.com.