
Image by AbsolutVision, from Unsplash
Wydawcy Blokują Boty AI, Aby Chronić Treść
Wydawcy wiadomości nadal walczą z botami AI, pozywając firmy technologiczne, ostrzegając, że scrapowanie stanowi zagrożenie dla dziennikarstwa, sprawiedliwych systemów wynagrodzeń, a także dla przyszłości otwartej sieci.
W pośpiechu? Oto szybkie fakty:
- Narzędzia AI takie jak ChatGPT zmniejszają ruch na stronach z wiadomościami.
- Cloudflare wprowadził narzędzia, które pomagają blokować nieautoryzowane skrapery AI.
- Reddit i iFixit podjęli kroki prawne lub zablokowali firmy AI takie jak Anthropic.
W nowym raporcie The Wall Street Journal (WSJ), wydawcy wiadomości zaczynają walczyć z firmami AI, które scrape’ują ich strony internetowe w poszukiwaniu treści bez wynagrodzenia. Wraz z rozwojem narzędzi AI takich jak ChatGPT i Gemini od Google’a, wiele firm medialnych stara się zablokować boty, które wykorzystują ich prace bez pozwolenia.
„Chcesz, aby Twoją stronę czytali ludzie, a nie boty, zwłaszcza boty, które nie przynoszą Ci żadnej wartości” – powiedział Nicholas Thompson, dyrektor generalny The Atlantic, który ma umowę licencyjną z OpenAI, ale planuje zablokować inne firmy AI, jak podaje WSJ.
Ta taktyka, znana jako „scraping”, istnieje od początku istnienia Google. Wówczas to wyszukiwarki napędzały ruch na stronach wydawców. Teraz, chatboty AI umożliwiają podsumowania wiadomości, które przekierowują czytelników z dala od odwiedzania ich oryginalnych źródeł. Połączenie zmniejszenia ruchu generowanego przez boty i spadku przychodów z reklam stało się powszechnym problemem dla wielu wydawców.
Aby przeciwdziałać, wydawcy zwracają się do firm technologicznych, takich jak Cloudflare, które niedawno wprowadziły narzędzia umożliwiające stronie internetowej kontrolowanie, czy boty AI mogą uzyskać dostęp do treści. CEO Dotdash Meredith, Neil Vogel, którego firma również licencjonuje treści dla OpenAI, powiedział: „Ludzie, którzy tworzą własność intelektualną, muszą być chronieni, w przeciwnym razie nikt już nie będzie tworzył własności intelektualnej”, jak podaje WSJ.
Niektóre firmy, takie jak Reddit i iFixit, podjęły działania prawne. Reddit pozwał firmę AI Anthropic za scrapowanie ponad 100 000 razy pomimo próśb o zaprzestanie. iFixit poinformowało, że Anthropic zaatakowało jego serwery milion razy w jeden dzień.
Walka toczy się również na sali sądowej. The New York Times pozywa Microsoft i OpenAI, podczas gdy News Corp i jej spółki zależne walczą z Perplexity. BBC także zagroziło podjęciem działań prawnych przeciwko start-upowi z branży AI, Perplexity, oskarżając go o scraping jego treści w celu szkolenia swojego domyślnego modelu.
Tymczasem niektórzy obawiają się, że surowsze przepisy przeciwko scrapingu mogą blokować legalne zastosowania, takie jak badania akademickie, jak zauważa WSJ.
Jak ostrzega Shayne Longpre z Inicjatywy Pochodzenia Danych, „Internet jest podzielony według najwyższego oferenta. To naprawdę złe dla koncentracji rynku i otwartości”, jak podaje WSJ.