
Image by Chris Blonk, from Unsplash
Model SI Stara Się Rozszyfrować, Co Mówią Delfiny
Badacze zajmujący się komunikacją delfinów obecnie korzystają z nowego modelu AI opracowanego przez Google, aby lepiej zrozumieć strukturę dźwięków wydawanych przez delfiny.
W pośpiechu? Oto najważniejsze informacje:
- Google opracował model AI, który analizuje i generuje dźwięki wydawane przez delfiny.
- Model został wytrenowany na danych dotyczących komunikacji delfinów WDP, zgromadzonych przez dziesięciolecia.
- DolphinGemma zostanie udostępniony na zasadach open-source, aby wspierać globalne badania nad komunikacją waleniów.
Model, znany jako DolphinGemma, analizuje nagrane dźwięki delfinów, aby zidentyfikować wzorce i generować sekwencje delfinopodobnych wokalizacji, jak ogłoszono we wtorek na Blogu Google News.
Inicjatywa to współpraca między Google, Georgia Institute of Technology oraz Wild Dolphin Project (WDP), organizacją non-profit, która od 1985 roku prowadzi badania nad społecznością dzikich delfinów plamistych z Atlantyku na Bahamach.
Google informuje, że narzędzie zostało zaprojektowane, aby wspomóc badania nad komunikacją międzygatunkową, identyfikując wzorce w skomplikowanych sekwencjach dźwięków, które delfiny wykorzystują na wolności. Ich długotrwałe, nieinwazyjne prace terenowe dostarczyły znaczny archiwum materiałów audio i wideo, które obecnie są wykorzystywane do szkolenia systemów AI.
To obejmuje przykłady znanych typów dźwięków – takich jak sygnatury gwizdów używane między matkami a cielętami, impulsy wybuchowe podczas konfliktu i kliknięcia brzęczenia w interakcjach z zalotami lub drapieżnikami.
Celem jest lepsze zrozumienie struktury tych wokalizacji i tego, co mogą one wskazywać na temat komunikacji i poznania delfinów.
DolphinGemma korzysta z tego zestawu danych, stosując przetwarzanie dźwięku Google SoundStream i architekturę modelu z 400 milionami parametrów, aby nauczyć się i przewidzieć dźwięki delfinów.
Zamiast próbować tłumaczyć dźwięki bezpośrednio, model przetwarza sekwencje naturalnych dźwięków delfinów i generuje nowe, delfinopodobne dźwięki na podstawie nauczonych wzorców.
Google informuje, że podejście to odzwierciedla sposób, w jaki duże modele językowe radzą sobie z językiem ludzkim, przewidując prawdopodobne kontynuacje na podstawie wcześniejszych danych wejściowych.
Model jest obecnie testowany w terenie przez WDP za pomocą smartfonów Pixel. Badacze mają nadzieję, że pomoże to zidentyfikować powtarzające się struktury wokalne i zredukować pracę manualną związaną z analizą dużych ilości danych akustycznych.
Narzędzie może również pomóc w identyfikacji potencjalnych elementów składowych systemów komunikacji między delfinami. W ramach tych działań, WDP i Georgia Tech opracowują system CHAT (Cetacean Hearing Augmentation Telemetry) – osobne interfejs dla ograniczonej dwukierunkowej interakcji.
CHAT emituje syntetyczne gwizdy kojarzone z obiektami, z którymi delfiny są znane z interakcji. System został zaprojektowany tak, aby wykryć, czy delfiny naśladują te gwizdy i aby alarmować badaczy w czasie rzeczywistym za pomocą słuchawek podwodnych.
Najnowsza wersja, zawierająca DolphinGemma, pozwala na bardziej efektywne przetwarzanie i przewidywanie tych wokalizacji w czasie rzeczywistym.
Chociaż badania nie roszczą sobie praw do odszyfrowania języka delfinów, stanowią krok naprzód w identyfikacji możliwych struktur w ich zachowaniu wokalnym.
Google planuje w najbliższych miesiącach udostępnić DolphinGemma jako model otwarty, co umożliwi szersze wykorzystanie przez badaczy pracujących z innymi gatunkami cetaceanów.