Wielkie modele językowe (LLM) generują język podobnie jak ludzie

15 maja 2025, 08:33

Naukowcy z Uniwersytetu Oksfordzkiego i Allen Institute for AI ze zdumieniem zauważyli, że wielkie modele językowe (LLM) – takie jak używane np. przez ChatGPT – generalizują wzorce językowe podobnie jak ludzie, poprzez analogie a nie ścisłe trzymanie się zasad. Badacze postanowili sprawdzić, na ile prawdziwe jest powszechnie panujące przekonanie, że LLM generują swoje wypowiedzi na podstawie obowiązujących zasad, które wydedukował z danych treningowych. Tymczasem okazało się, że – podobnie jak ludzie – modele językowe posługują się przykładami i analogiami podczas tworzenia nieznanych sobie słów.



Duże modele językowe – jak ChatGPT – mają lewicowe „poglądy”

5 sierpnia 2024, 11:00

Większość dużych modeli językowych (LLM), systemów sztucznej inteligencji takich jak ChatGPT, wykazuje odchylenie w lewą stronę sceny politycznej, informuje David Rozado z nowozelandzkiej Politechniki w Otago. Uczony wykorzystał 11 testów orientacji politycznej do określenia „poglądów” 24 najbardziej rozwiniętych LLM, zarówno tych, o kodzie otwartym, jak i zamkniętym. Przebadał ChatGPT, rozwijany przez Metę Llama, google'owski Gemini, WizardLM Microsoftu, Grok Twittera czy Qwen Alibaby


ChatGPT i inne wielkie modele językowe nie zagrażają ludzkości

14 sierpnia 2024, 14:48

Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.


ChatGPT jak człowiek. Zauważono u niego... dysonans poznawczy

29 maja 2025, 10:30

Jedną z najważniejszych cech sztucznej inteligencji i to taką, która ma powodować, że będzie ona dla nas niezwykle użyteczna, jest obietnica podejmowania przez nią racjonalnych decyzji. Opartych na faktach i bezstronnej analizie, a nie na emocjach, przesądach czy fałszywych przesłankach. Pojawia się jednak coraz więcej badań pokazujących, że wielkie modele językowe (LLM) mogą działać nieracjonalnie, podobnie jak ludzie. Naukowcy z Wydziałów Psychologii Uniwersytetu Harvarda i Uniwersytetu Nowej Południowej Walii oraz Wydziału Nauk Komputerowych Boston University i firmy Cangrade zauważyli u ChataGPT-4o istnienie... dysonansu poznawczego.


ChatGPT dobrze sobie radzi w... kosmosie

2 lipca 2025, 16:04

W miarę jak zwiększa się liczba pojazdów w przestrzeni kosmicznej, im bardziej skomplikowane są misje kosmiczne i w im większej odległości się odbywają, tym większą rolę odgrywa automatyzacja zadań. Dużą liczbą satelitów nie da się ręcznie zarządzać, dlatego większość z nich korzysta z systemów automatycznych, a ludzka interwencja potrzebna jest w sytuacjach awaryjnych, w przypadku aktualizacji oprogramowania czy zmiany orbity. Z kolei w przypadku misji w dalszych częściach Układu Słonecznego ręczne sterowanie pojazdami jest wręcz niemożliwe z powodu dużych odległości i opóźnień sygnału.


Zostań Patronem

Od 2006 roku popularyzujemy naukę. Chcemy się rozwijać i dostarczać naszym Czytelnikom jeszcze więcej atrakcyjnych treści wysokiej jakości. Dlatego postanowiliśmy poprosić o wsparcie. Zostań naszym Patronem i pomóż nam rozwijać KopalnięWiedzy.

Patronite

Patroni KopalniWiedzy