Nauka ma coraz większy problem z AI. Gwałtowny wzrost fałszywych cytowań w artykułach naukowych

12 maja 2026, 15:11

W ostatnich latach w Polsce miało miejsce kilka spektakularnych przypadków opublikowania artykułów czy książek wzbogaconych przypisami do nieistniejących źródeł naukowych. Jasnym było, że źródła te zostały zmyślone przez wielkie modele językowe. Gdy nieistniejące prace są cytowane przez dziennikarzy i pisarzy, jest to niepokojący sygnał. Gorzej, gdy takie rzeczy zdarzają się w recenzowanych artykułach naukowych. To oznacza, że mamy problem. I jest on coraz bardziej poważny.



Paradoksalna zależność: języki bardziej zróżnicowane tam, gdzie mniej zróżnicowane geny

6 maja 2026, 07:31

Ludzkie języki w niezwykłym stopniu różnią się między sobą. Jedne stawiają czasownik na początku zdania, inne na końcu, jeszcze inne w środku. Jedne posługują się tonami, inne nie. Jedne opisują „palec” i „dłoń” tym samym słowem, inne mają odrębne pojęcia. Dlaczego ta różnorodność jest tak nierównomiernie rozłożona na mapie świata? Dlaczego jedne regiony są prawdziwymi mozaikami językowymi, a w innych dominuje jeden wzorzec? Odpowiedź, jak pokazują badania opublikowane właśnie na łamach PNAS, tkwi w genetyce mieszkańców poszczególnych obszarów.


Ludzie kontra maszyny: kto jest lepszym tłumaczem? Człowiek czy wielki model językowy?

13 lutego 2026, 09:27

Systemy sztucznej inteligencji w coraz większej liczbie zadań dorównują ludziom. Dlatego naukowcy z Westlake University w chińskim Hangzhou postanowili sprawdzić, jak radzą sobie z tłumaczeniami tekstów. Porównali zatem tłumaczy gatunku Homo sapiens z wielkimi modelami językowymi, w tym z GPT-4, ALMA-R oraz Deepseek-R1. Ludzie i maszyny mieli tłumaczyć w obie strony te same fragmenty tekstów pomiędzy chińskim i angielskim, rosyjskim i angielskim oraz chińskim i hindi. Teksty dotyczyły trzech dziedzin. Były to bieżące informacje prasowe, teksty technologiczne i biomedyczne.


Mieszkańcy Teotihuacán przodkami Azteków? Duńczycy próbują odczytać tamtejsze pismo

8 października 2025, 08:44

Teotihuacán, jedno z najwspanialszych miast i kultur Ameryki, wciąż stanowi dla nas tajemnicę. Miasto zaczęło rozwijać się około I wieku przed naszą erą. W okresie największego rozkwitu, pomiędzy III a VI wiekiem mieszkało w nim być może 200 tysięcy osób, należało więc do największych miast świata. I mimo, że sporo wiemy o jego kulturze, wspaniałych zabytkach czy wpływach politycznych, zagadkę wciąż stanowią jego mieszkańcy. Nie wiemy, kim byli, do jakiej grupy etnicznej należeli


ChatGPT dobrze sobie radzi w... kosmosie

2 lipca 2025, 16:04

W miarę jak zwiększa się liczba pojazdów w przestrzeni kosmicznej, im bardziej skomplikowane są misje kosmiczne i w im większej odległości się odbywają, tym większą rolę odgrywa automatyzacja zadań. Dużą liczbą satelitów nie da się ręcznie zarządzać, dlatego większość z nich korzysta z systemów automatycznych, a ludzka interwencja potrzebna jest w sytuacjach awaryjnych, w przypadku aktualizacji oprogramowania czy zmiany orbity. Z kolei w przypadku misji w dalszych częściach Układu Słonecznego ręczne sterowanie pojazdami jest wręcz niemożliwe z powodu dużych odległości i opóźnień sygnału.


ChatGPT jak człowiek. Zauważono u niego... dysonans poznawczy

29 maja 2025, 10:30

Jedną z najważniejszych cech sztucznej inteligencji i to taką, która ma powodować, że będzie ona dla nas niezwykle użyteczna, jest obietnica podejmowania przez nią racjonalnych decyzji. Opartych na faktach i bezstronnej analizie, a nie na emocjach, przesądach czy fałszywych przesłankach. Pojawia się jednak coraz więcej badań pokazujących, że wielkie modele językowe (LLM) mogą działać nieracjonalnie, podobnie jak ludzie. Naukowcy z Wydziałów Psychologii Uniwersytetu Harvarda i Uniwersytetu Nowej Południowej Walii oraz Wydziału Nauk Komputerowych Boston University i firmy Cangrade zauważyli u ChataGPT-4o istnienie... dysonansu poznawczego.


Wielkie modele językowe (LLM) generują język podobnie jak ludzie

15 maja 2025, 08:33

Naukowcy z Uniwersytetu Oksfordzkiego i Allen Institute for AI ze zdumieniem zauważyli, że wielkie modele językowe (LLM) – takie jak używane np. przez ChatGPT – generalizują wzorce językowe podobnie jak ludzie, poprzez analogie a nie ścisłe trzymanie się zasad. Badacze postanowili sprawdzić, na ile prawdziwe jest powszechnie panujące przekonanie, że LLM generują swoje wypowiedzi na podstawie obowiązujących zasad, które wydedukował z danych treningowych. Tymczasem okazało się, że – podobnie jak ludzie – modele językowe posługują się przykładami i analogiami podczas tworzenia nieznanych sobie słów.


Od co najmniej 135 000 lat mamy zdolność do tworzenia złożonego języka

17 marca 2025, 11:32

Homo sapiens pojawił się około 230 000 lat temu. Kiedy zaś powstała mowa w znanej nam obecnie formie? Próby wyznaczenia tego momentu trwają od dawna i bazują na bardzo różnych dowodach, od skamieniałości po dowody oparte na wytworach kultury. Nowa analiza, przeprowadzona na podstawie dowodów genetycznych, przez naukowców z USA, Brazylii, Japonii i Szwajcarii wskazuje, że wśród H. sapiens zdolność do wytworzenia języka w takiej formie, w jakiej znamy go dzisiaj, istniała już 135 000 lat temu


Czy zmiana pojedynczego aminokwasu pomogła w rozwoju złożonej mowy?

18 lutego 2025, 12:11

Pochodzenie języka wciąż stanowi tajemnicę. Nie wiemy, kiedy nasi przodkowie zaczęli mówić, czy jesteśmy jedynym gatunkiem na Ziemi zdolnym do złożonej komunikacji głosowej. Nie wiemy też, czy jesteśmy jedynym gatunkiem hominina, który posługiwał się zaawansowaną mową. Wiemy za to, że nasi najbliżsi kuzyni, neandertalczycy, posiadali struktury anatomiczne konieczne do produkcji mowy oraz wariant genu łączony ze zdolnością mówienia. Jednak dotychczasowe badania sugerują, że ich zdolności językowe były bardzo ograniczone w porównaniu z naszymi


Sztuczna inteligencja przekroczyła czerwoną linię? Jest zdolna do samoreplikacji?

24 stycznia 2025, 16:18

Grupa chińskich naukowców informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.


Zostań Patronem

Od 2006 roku popularyzujemy naukę. Chcemy się rozwijać i dostarczać naszym Czytelnikom jeszcze więcej atrakcyjnych treści wysokiej jakości. Dlatego postanowiliśmy poprosić o wsparcie. Zostań naszym Patronem i pomóż nam rozwijać KopalnięWiedzy.

Patronite

Patroni KopalniWiedzy