ChatGPT wypada lepiej niż 99% ludzi w teście kreatywnego myślenia
Sztuczna inteligencja wypada w teście kreatywnego myślenia lepiej niż 99% ludzi, wynika z badania przeprowadzonego przez naukowców z University of Montana. Doktor Eric Guzik i jego zespół wykorzystali Torrance Tests of Creative Thinking (TTCT), który od dziesięcioleci używany jest do oceny kreatywnego myślenia u ludzi. Guzik wygenerował z pomocą ChatGPT 8 rozwiązań tego testu, dodatkowo dał go do rozwiązania 24 swoim studentom. Testy zostały ocenione przez Scholastic Testing Service, którego przedstawiciele nie wiedzieli, że część z nich rozwiązała sztuczna inteligencja.
Wyniki testów wypełnionych przez ChatGPT i studentów Guzika zostały następnie porównane z wynikami 2700 studentów, którzy wypełniali TTCT w 2016 roku. Okazało się, że ChatGPT znalazł się na samym szczycie kreatywności. SI zaklasyfikowała się w górnym 1% pod względem oryginalności oraz liczby twórczych pomysłów oraz w 3 górnych procentach pod względem elastyczności, czyli zdolności do tworzenia różnych typów i kategorii pomysłów
To coś nowego. Wykazaliśmy, że ChatGPT klasyfikuje się w najlepszym 1% pod względem kreatywności, mówi Guzik. Cieszy się jednocześnie, że niektórzy z jego studentów również uzyskali tak dobry wynik. Jednak ChatGPT okazał się bardziej kreatywny niż zdecydowana większość z 2700 studentów.
Guzik przedstawił uzyskane przez siebie wyniki na Creativity Conference zorganizowanej przez Southern Oregon University. Naukowiec zapytał też ChatGPT, jak to się stało, że uzyskał tak dobre wyniki. ChatGPT odpowiedział, że prawdopodobnie nie rozumiemy w pełni ludzkiej kreatywności i sądzę, że ma rację. Zasugerował też, że potrzebujemy bardziej zaawansowanych narzędzi, które pozwolą nam odróżnić pomysły tworzone przez ludzi, od tych tworzonych przez sztuczną inteligencję, wyjaśnia Guzik.
Uczony od dawna zajmuje się zagadnieniem kreatywności. Przyglądając się ChatowiGPT zauważył, że robi rzeczy, których się po nim nie spodziewał. Niektóre jego odpowiedzi były nowatorskie i zaskakujące. Wtedy postanowiliśmy zbadać jego kreatywność, mówi. Podkreśla przy tym, że ChatGPT nie mógł oszukiwać i posłużyć się pomysłami z wcześniej rozwiązywanych TTCT, gdyż nie są one dostępne.
TTCT stawia przed testowanymi problemy symulujące problemy życia codziennego. Powiedzmy, że mamy piłkę do koszykówki. I pada pytanie, do czego można jej użyć. Oczywiście możemy użyć jej do rzucania, odbijania czy ozdoby pokoju. Ale jeśli pobudzimy swoją wyobraźnię, to być może przetniemy ją na pół i wykorzystamy jako doniczkę. A z cegły możemy coś zbudować, użyć jej jako przycisku do papieru. A może warto ją zmielić i stworzyć coś zupełnie innego?, wyjaśnia Guzik.
Komentarze (2)
Michał D, 9 lipca 2023, 16:37
Zastanawiam się, czy nie jest to w istocie efekt BRAKU REALIZMU u ChatGPT. Człowiek, mający doświadczenie życiowe, wiedzący że wiele pomysłów po prostu nie przejdzie, wykluczy rozwiązania, które SI, funkcjonujące bez "wewnętrznej cenzury" rozważy. Testy kreatywności w prostych konfiguracjach nie mają szans bycia testami "tej prawdziwej" kreatywności, ale raczej asocjacyjności i braku zahamowań w uznawaniu różnych, nieraz wariackich, pomysłów za rozwiązanie. W prostych zadaniach SI będzie naturalnie lepsza od człowieka, bo się optymalizuje na reakcjach mentalnych, które ludzie wyparli, z racji na to, że są w życiu nieprzydatne, a wręcz szkodliwe. SI ma fantazję, ale nie ma odpowiedzialności, wszak nie boi się, że zostanie skrytykowana, źle oceniona przez kogoś, nie ma zahamowań.
peceed, 11 lipca 2023, 03:54
Jestem tego samego zdania. Jest bardzo łatwo bawić się ideami na poziomie leksykalnym, ale trzeba jeszcze odpalić w mózgu model tego co zostało powiedziane i wtedy widać że większość tych pomysłów nie ma sensu. Sztuką jest rozwiązywać rzeczywiste problemy efektywnie i z użyciem dostępnych środków.