Twój koszyk jest obecnie pusty!
Zwierzęta nie mogą powiedzieć, co czują. Ale potrafią to pokazać — czasem zachowaniem, a czasem… głosem. A naukowcy przez lata próbowali zrozumieć, co znaczą różne dźwięki wydawane przez zwierzęta. Z pomocą przyszła im wreszcie sztuczna inteligencja. Najnowsze badanie, przeprowadzone przez międzynarodowy zespół naukowców z Uniwersytetu w Kopenhadze, pokazało, że AI potrafi rozpoznać emocje ukryte w dźwiękach aż siedmiu gatunków zwierząt kopytnych.
Jak AI rozpoznaje emocje?
Nasze ciała pokazują, co czujemy. Zmienia się nasze tętno, oddech, a także głos. Tak samo dzieje się u zwierząt. Głos staje się wyższy lub niższy, wydawane dźwięki są krótsze lub dłuższe, cichsze lub głośniejsze. Czasem w sposób niezauważalny dla ludzkiego ucha. Jednak AI nie umknie nic. Algorytm XGBoost przeanalizował tysiące nagrań zwierzęcych wokalizacji w poszukiwaniu powtarzalnych cech, które mogłyby wskazywać na konkretne emocje. I znalazł. Dźwięki radości lub spokoju są zwykle krótsze, bardziej stonowane, z mniejszą liczbą wysokich tonów. Z kolei gdy zwierzę czuje stres, jego wokalizacja staje się dłuższa, bardziej „drżąca”, pełna napięcia.
Po co to wszystko?
Odkrycie wspólnych „sygnałów emocji” u różnych gatunków to coś więcej niż ciekawostka. To krok w stronę lepszego rozumienia zwierząt, ich potrzeb, a co za tym idzie: dbania o ich dobrostan. Jeśli AI potrafi rozpoznać, kiedy zwierzę jest zestresowane, można szybciej reagować. Ulepszyć warunki hodowli, zauważyć problemy, zanim dojdzie do choroby. To także nadzieja na nowe narzędzia dla rolników, weterynarzy i opiekunów zwierząt.
A co z emocjami międzygatunkowymi?
Ciekawostką jest to, że niektóre cechy dźwięków, które wskazują na konkretne emocje są wspólne dla wielu gatunków. Co to znaczy? Prawdopodobnie istnieje „uniwersalny język emocji” — przynajmniej tych wyrażanych głosem. Najlepiej z rozpoznawaniem emocji AI radzi sobie u świń. Kozy czy konie Przewalskiego są bardziej „tajemnicze” – ich głosy trudniej odczytać. Ale przecież jesteśmy dopiero na początku drogi. To pierwsze tego typu badanie, które objęło tyle różnych gatunków naraz. Do tej pory AI badała zwykle jeden gatunek. Teraz wiadomo, że możliwe jest stworzenie narzędzia, które rozpoznaje emocje wielu różnych zwierząt.
Co dalej?
Aby AI stała się prawdziwym „tłumaczem” emocji zwierząt, potrzeba więcej danych. Nagrania od większej liczby gatunków, w różnych sytuacjach. Może w przyszłości wystarczy aplikacja na telefonie, która po chrząknięciu świni lub muczeniu krowy powie: „Zestresowana”, „Zadowolona”, „Głodna”. Pozostaje nam czekać.