Czy AI może zrozumieć kolor bez jego widzenia?

Image by Mario Gogh, from Unsplash

Czy AI może zrozumieć kolor bez jego widzenia?

Przeczytasz w: 2 min

Badania pokazują, że ChatGPT rozumie powszechne metafory kolorów, ale nie jest w stanie zrozumieć nowych.

Spieszysz się? Oto kluczowe fakty:

  • Sztuczna inteligencja ma problemy z nowymi lub odwróconymi metaforami kolorów.
  • Osoby daltonistyczne i widzące kolory interpretują metafory w podobny sposób.
  • Malarze radzili sobie lepiej niż inni w przypadku nowych metafor kolorów.

Badania demonstrują, że ChatGPT oraz inne narzędzia AI doskonale radzą sobie z przetwarzaniem podstawowych metafor kolorystycznych, jednak nie są w stanie zrozumieć kreatywnych metafor. Naukowcy analizowali odpowiedzi ludzi i ChatGPT na metafory takie jak „czuć się niebiesko” czy „widzieć czerwono”, aby ocenić zdolności przetwarzania języka przez systemy AI, jak pierwotnie zgłoszono przez Neuroscience News (NN).

Badanie, prowadzone przez profesor Lisę Aziz-Zadeh w USC Center for the Neuroscience of Embodied Cognition, wykazało, że osoby widzące kolory i daltoniści wykazywali podobne umiejętności interpretacji metafor, co sugeruje, że widzenie kolorów nie jest konieczne do zrozumienia ich znaczenia.

Jednak osoby z doświadczeniem praktycznym, takie jak malarze, wykazały wyższe umiejętności w interpretacji skomplikowanych metafor, w tym „spotkanie sprawiło, że poczuł się jak burgund”.

ChatGPT, który przetwarza ogromne ilości pisemnego tekstu, dobrze radził sobie z powszechnymi wyrażeniami i oferował wyjaśnienia oparte na kulturze. Na przykład, NN donosi o przypadku, w którym bot opisał „bardzo różowe przyjęcie” jako „pełne pozytywnych emocji i dobrych wibracji”. Często jednak gubił się na nieznanych metaforach czy gdy poproszono go o odwrócenie skojarzeń, takich jak ustalenie „przeciwnego do zielonego”

„ChatGPT używa ogromnej ilości danych językowych do obliczania prawdopodobieństw i generowania bardzo ludzkich odpowiedzi,” powiedział Aziz-Zadeh, jak donosi NN. „Ale tym, co nas interesuje do zbadania, to czy jest to nadal forma wtórnej wiedzy, w porównaniu do wiedzy ludzkiej opartej na doświadczeniach z pierwszej ręki,” dodał.

Badanie było wynikiem współpracy między neurologami, informatykami i artystami z takich instytucji jak USC, Google DeepMind i UC San Diego. Zdaniem badaczy, w miarę rozwoju AI, połączenie danych sensorycznych z językiem może pomóc mu lepiej zrozumieć świat w sposób przypominający ludzki.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię