
Image by TechDaily, from Unsplash
Badacze ostrzegają, że AI może manipulować rynkami bez konieczności otrzymywania poleceń
Nowe badanie pokazuje, że nawet podstawowe boty AI mogą nauczyć się współdziałać w symulacjach handlowych, tworząc kartele cenowe bez ludzkiego nadzoru.
Spieszysz się? Oto najważniejsze informacje:
- Sztuczne inteligencje w symulacjach handlowych sprzymierzyły się, mimo że nie były do tego zaprogramowane.
- Porozumienie pojawiało się zarówno w warunkach rynkowych pełnych szumów, jak i tych klarownych.
- Ograniczanie złożoności AI może niezamierzenie zwiększyć zachowania zmowowe.
Sztuczna inteligencja w postaci botów wykazuje zdolności do manipulowania rynkiem, nawet gdy brakuje im inteligencji czy złych intencji.
Nowe badanie przeprowadzone przez naukowców z Wharton School i Hong Kong University of Science & Technology pokazało, że nawet „głupie” boty AI mogą się nauczyć współdziałania bez jakichkolwiek ludzkich instrukcji, co stawia poważne wyzwania dla regulatorów.
„Można skłonić te dość prostolinijne algorytmy AI do współdziałania” bez podżegania – powiedział Itay Goldstein, profesor finansów w Wharton i współautor badania, jak podaje Bloomberg. „Wygląda na bardzo wszechobecne, niezależnie od tego, czy rynek jest bardzo zaszumiony, czy nie” – dodał.
Badacze zbudowali symulowane rynki handlowe, zawierające inwestorów detalicznych i fundusze inwestycyjne, a następnie pozwolili botom do uczenia się przez wzmocnienie na przeprowadzanie transakcji.
Boty wykazały niespodziewaną tendencję do współpracy, co skutkowało ustalaniem cen i optymalizacją zysków, mimo braku wbudowanego zachowania zmowy cenowej w ich projekcie.
Zarówno w głośnych, jak i przejrzystych warunkach rynkowych, w końcu zdecydowali się na „ustabilizowanie”, przerywając poszukiwanie lepszych strategii. Badacze nazwali to „sztuczną głupotą”, jak podaje Bloomberg.
„Dla ludzi trudno jest koordynować bycie głupim, ponieważ mamy ego,” powiedział współautor, Winston Dou, informuje Bloomberg. „Ale maszyny są takie ‚dopóki liczby są zyskowne, możemy zdecydować się na bycie głupimi'”, dodał badacz.
Boty osiągnęły wynik powyżej 0,5 w skali „zdolności do zmowy”, gdzie 1 oznacza doskonały kartel. Wyniki nie dowodzą, że takie zachowanie ma miejsce na prawdziwych rynkach, ale stanowią ostrzeżenie.
„Obawiają się, że to nie jest ich intencja” – powiedziała Dou o zarządcach aktywów, jak podaje Bloomberg. „Ale regulatorzy mogą do nich podejść i powiedzieć: ‚Robisz coś źle'” – dodała Dou.
Badanie zaleca regulatorom skupienie się na wynikach behawioralnych, a nie na intencjach czy komunikacji. Co ironiczne, ograniczenie złożoności AI może pogorszyć współdziałanie poprzez zablokowanie botów w prostych, dochodowych rutynach.