
Image by Mario Gogh, from Unsplash
Czy AI może zrozumieć kolor bez jego widzenia?
Badania pokazują, że ChatGPT rozumie powszechne metafory kolorów, ale nie jest w stanie zrozumieć nowych.
Spieszysz się? Oto kluczowe fakty:
- Sztuczna inteligencja ma problemy z nowymi lub odwróconymi metaforami kolorów.
- Osoby daltonistyczne i widzące kolory interpretują metafory w podobny sposób.
- Malarze radzili sobie lepiej niż inni w przypadku nowych metafor kolorów.
Badania demonstrują, że ChatGPT oraz inne narzędzia AI doskonale radzą sobie z przetwarzaniem podstawowych metafor kolorystycznych, jednak nie są w stanie zrozumieć kreatywnych metafor. Naukowcy analizowali odpowiedzi ludzi i ChatGPT na metafory takie jak „czuć się niebiesko” czy „widzieć czerwono”, aby ocenić zdolności przetwarzania języka przez systemy AI, jak pierwotnie zgłoszono przez Neuroscience News (NN).
Badanie, prowadzone przez profesor Lisę Aziz-Zadeh w USC Center for the Neuroscience of Embodied Cognition, wykazało, że osoby widzące kolory i daltoniści wykazywali podobne umiejętności interpretacji metafor, co sugeruje, że widzenie kolorów nie jest konieczne do zrozumienia ich znaczenia.
Jednak osoby z doświadczeniem praktycznym, takie jak malarze, wykazały wyższe umiejętności w interpretacji skomplikowanych metafor, w tym „spotkanie sprawiło, że poczuł się jak burgund”.
ChatGPT, który przetwarza ogromne ilości pisemnego tekstu, dobrze radził sobie z powszechnymi wyrażeniami i oferował wyjaśnienia oparte na kulturze. Na przykład, NN donosi o przypadku, w którym bot opisał „bardzo różowe przyjęcie” jako „pełne pozytywnych emocji i dobrych wibracji”. Często jednak gubił się na nieznanych metaforach czy gdy poproszono go o odwrócenie skojarzeń, takich jak ustalenie „przeciwnego do zielonego”
„ChatGPT używa ogromnej ilości danych językowych do obliczania prawdopodobieństw i generowania bardzo ludzkich odpowiedzi,” powiedział Aziz-Zadeh, jak donosi NN. „Ale tym, co nas interesuje do zbadania, to czy jest to nadal forma wtórnej wiedzy, w porównaniu do wiedzy ludzkiej opartej na doświadczeniach z pierwszej ręki,” dodał.
Badanie było wynikiem współpracy między neurologami, informatykami i artystami z takich instytucji jak USC, Google DeepMind i UC San Diego. Zdaniem badaczy, w miarę rozwoju AI, połączenie danych sensorycznych z językiem może pomóc mu lepiej zrozumieć świat w sposób przypominający ludzki.