
Image by Szabo Viktor, from Unsplash
Twórcy z YouTube Nieświadomie Napędzają Modele AI Google’a
Google potwierdziło, że korzysta z podzbioru filmów z YouTube do szkolenia swoich modeli sztucznej inteligencji, do których należą Gemini i zaawansowany generator filmów Veo 3.
W pośpiechu? Oto najważniejsze informacje:
- Twórcy nie zostali poinformowani, że ich filmy służą do trenowania narzędzi AI.
- Regulamin YouTube pozwala Google na udzielanie licencji na przesłane treści na całym świecie i bez opłat licencyjnych.
- Eksperci ostrzegają, że AI może konkurować z twórcami bez ich zgody lub wynagrodzenia.
Wiadomość, którą pierwotnie podał CNBC, wywołała krytykę twórców treści i specjalistów od własności intelektualnej, którzy obawiają się, że ich treści mogą być wykorzystane do tworzenia narzędzi, które ostatecznie mogą ich zastąpić.
„Zawsze korzystaliśmy z treści z YouTube, aby ulepszać nasze produkty, i to się nie zmieniło z nadejściem ery AI,” powiedział rzecznik YouTube dla CNBC.
„Rozpoznajemy również potrzebę pewnych ograniczeń, dlatego zainwestowaliśmy w solidne zabezpieczenia, które pozwalają twórcom chronić swój wizerunek i podobieństwo w dobie AI,” dodał rzecznik.
CNBC informuje, że YouTube hostuje ponad 20 miliardów filmów. Google jednak nie ujawnił dokładnej liczby filmów, które wykorzystuje do szkolenia AI. Artykuł zauważa, że nawet 1% wybór z ogromnego katalogu YouTube’a nadal skutkowałby miliardami minut treści, co przekracza dane szkoleniowe większości konkurujących platform AI.
CNBC rozmawiało z kilkoma twórcami i profesjonalistami z dziedziny własności intelektualnej, którzy nie wiedzieli, że ich treść może być wykorzystywana do szkolenia AI. „To prawdopodobne, że pobierają dane od wielu twórców, którzy poświęcili wiele czasu i energii, a także własnych przemyśleń, aby stworzyć te filmy” – powiedział Luke Arrigoni, dyrektor generalny firmy zajmującej się cyfrową tożsamością, Loti. „To niekoniecznie jest fair wobec nich” – dodał.
Google zaprezentował Veo 3 w maju za pomocą kinematograficznego treści wygenerowanych przez AI. Chociaż firma ma prawo na mocy regulaminu YouTube do korzystania z przesłanych treści, eksperci tacy jak Dan Neely z Vermillio ostrzegają, że narzędzia generowane przez AI mogą bezpośrednio konkurować z twórcami dostarczającymi dane do treningu.
„Zauważyliśmy rosnącą liczbę twórców odkrywających fałszywe wersje siebie” – powiedział Neely do CNBC.
Napędzając dalej debatę, śledztwo ujawniło, że wiele dużych firm AI, takich jak Apple, Nvidia, Anthropic i Salesforce, użyło transkryptów z ponad 173 000 filmów z YouTube do szkolenia modeli AI, pomimo polityki platformy.
Filmy pochodziły z ponad 48 000 kanałów, w tym od czołowych twórców, takich jak MrBeast, PewDiePie i Marques Brownlee, a także od instytucji akademickich i informacyjnych, takich jak MIT, Khan Academy, NPR i BBC.
Brak wyraźnej opcji rezygnacji lub ostrzeżenia, kiedy AI przeszukuje treść, skłonił twórców do żądania lepszej przejrzystości i ochrony dla procesów szkolenia AI.