MÁS DE TECNOLOGÍA



HALLAZGO

Utilizan inteligencia artificial para entender lo que dicen las gallinas

Científicos japoneses usaron inteligencia artificial para descifrar las emociones de las gallinas a partir de sus vocalizaciones

Utilizan inteligencia artificial para entender lo que dicen las gallinas

Un grupo de científicos en Japón desarrolló un sistema de inteligencia artificial (IA) capaz de traducir los diferentes estados emocionales de las gallinas. Los investigadores lograron identificar qué sienten estas aves de acuerdo con sus ruidos.

El avance de las nuevas tecnologías y, el desarrollo de la IA específicamente, acapara la atención del mundo. Desde el lanzamiento de ChatGPT en noviembre, esas tecnologías viven un nuevo auge, ostentando grandes habilidades para emular el comportamiento humano.

Este cambio tan emocionante resulta un arma de doble filo. A pesar del avance sin regulación que ponen a disposición de millones de usuarios programas que permiten "clonar" modelos de escritura propios o ajenos, la IA también permite alcanzar descubrimientos fascinantes y ampliar el marco de conocimiento a partir de la creación de nuevas aplicaciones.

Esto es lo que lograron científicos de la Universidad de Tokio, quienes desarrollaron un sistema de IA que permite reconocer el estado de ánimo de las gallinas. El método, llamado “aprendizaje de análisis emocional profundo”, puede adaptarse a patrones vocales cambiantes y es capaz de traducir diferentes estados emocionales en esos animales, incluidos el hambre, el miedo, la ira, la alegría, la excitación y la angustia.

De acuerdo al equipo de investigadores dirigido por el profesor Adrian David Cheok, su metodología de trabajo "emplea una técnica de IA de vanguardia. Es un enfoque matemático e innovador que permite la comprensión matizada de los estados emocionales a través de datos auditivos”, explicaron en el estudio.

El método fue llamado “aprendizaje de análisis emocional profundo”

Estudio de emociones de las gallinas

El caso fue publicado en la revista Research Square y detalla los hallazgos del equipo japonés.

Los científicos probaron su procedimiento con 80 gallinas, en colaboración con un equipo de veterinarios. En las pruebas, consiguieron gran precisión para identificar las diferentes emociones de las aves. “Las altas probabilidades de detección de cada sentimiento sugieren que nuestro modelo aprendió a capturar patrones y características significativos de los sonidos de las gallinas”, indicaron.

"Si sabemos lo que sienten los animales, podemos diseñar un mundo mucho mejor para ellos", afirmó Cheok.

El grupo analizó 200 horas de sonidos: 100 horas sirvieron para entrenar a la inteligencia artificial y las otras 100 fueron necesarias como prueba de reconocimiento para el sistema ya entrenado. La IA pudo reconocer las etiquetas de emociones con un 80% de éxito.

La IA pudo reconocer las etiquetas de emociones con un 80 % de éxito

Posibles limitaciones del estudio y antecedentes

A pesar de estos prometedores hallazgos, los mismos investigadores advierten sobre posibles limitaciones en el estudio, como las diferencias entre razas de gallinas y la complejidad de otras formas de comunicación, como el lenguaje corporal.

A su vez, los investigadores reconocieron que la precisión de su modelo puede cambiar con diferentes razas y condiciones ambientales y que "el conjunto de datos utilizado para el entrenamiento y la evaluación puede no capturar toda la gama de variaciones y estados emocionales de las gallinas".

Existen antecedentes sobre descubrimientos para mejorar la comprensión de las emociones en el reino animal. En 2022, un equipo de investigadores de la Universidad de Copenhague, la ETH Zurich y el Instituto Nacional de Investigación sobre Agricultura, Alimentación y Medio Ambiente de Francia diseñaron un sistema similar para comprender las emociones de los cerdos.

Por otra parte, esos avances también podrían emplearse en seres humanos, más específicamente para reconocer qué sienten los bebés. En 2019, la científica de datos Ana Laguna Pradas creó un algoritmo capaz de reconocer patrones en el llanto de los pequeños. Con IA, sería posible identificar malestares como el sueño, el hambre o el dolor, logrando la respuesta a una las dudas más frecuentes entre madres y padres en el trato con los niños y niñas que todavía no hablan.


¿Te gustó la noticia? Compartíla!