ChatGPT przyspiesza tworzenie tekstów i poprawia ich jakość
ChatGPT od kilku miesięcy jest używany w codziennej pracy przez wiele osób i wciąż budzi skrajne emocje. Jedni podchodzą do niego entuzjastycznie, mówiąc o olbrzymiej pomocy, jaką udziela podczas tworzenia różnego rodzaju treści, inni obawiają się, że ta i podobne technologie odbiorą pracę wielu ludziom. Dwoje doktorantów ekonomii z MIT poinformowało na łamach Science o wynikach eksperymentu, w ramach którego sprawdzali, jak ChatGPT wpływa na tempo i jakość wykonywanej pracy.
Shakked Noy i Whitney Zhang poprosili o pomoc 453 marketingowców, analityków danych oraz innych profesjonalistów, którzy ukończyli koledż. Ich zadaniem było napisanie dwóch tekstów, jakich tworzenie jest częścią ich pracy zawodowej – relacji prasowej, raportu czy analizy. Połowa z badanych mogła przy drugim z zadań skorzystać z ChataGPT. Teksty były następnie oceniane przez innych profesjonalistów pracujących w tych samych zawodach. Każdy tekst oceniały 3 osoby, nadając mu od 1 do 7 punktów.
Okazało się, że osoby, które używały ChataGPT kończyły postawione przed nimi zadanie o 40% szybciej, a ich prace były średnio o 18% lepiej oceniane, niż osób, które z Chata nie korzystały. Ci, którzy już potrafili tworzyć wysokiej jakości treści, dzięki ChatowiGPT tworzyli je szybciej. Z kolei główną korzyścią dla słabszych pracowników było poprawienie jakości ich pracy.
ChatGPT jest bardzo dobry w tworzeniu tego typu treści, więc użycie go do zautomatyzowania pracy zaoszczędza sporo czasu. Jasnym jest, że to bardzo użyteczne narzędzie w pracy biurowej, będzie ono miało olbrzymi wpływ na strukturę zatrudnienia, mówi Noy.
Oceniający teksty nie sprawdzali jednak, czy ich treść jest prawdziwa. A warto podkreślić, że odpowiedzi generowane przez ChatGPT i inne podobne modele często są mało wiarygodne. Modele te są bowiem bardzo dobre w przekonującym prezentowaniu fałszywych informacji jako prawdziwe. Przypomnijmy, że w ubiegłym miesiącu sąd w Nowym Jorku nałożył grzywnę na firmę prawniczą, która użyła ChataGPT do sporządzenia opinii prawnej pełnej fałszywych cytatów z rzekomych wyroków sądowych. Co więcej, prawnicy byli tak pewni, że algorytm dobrze wykonał zadanie, iż upierali się, że cytaty są prawdziwe. Postęp technologiczny jest powszechny i nie ma niczego niewłaściwego w używaniu narzędzi sztucznej inteligencji. Jednak istniejące zasady nakazują prawnikom upewnienie się, że treści składanych przez nich dokumentów są prawdziwe, stwierdził sędzia Kevin Castel.
O ile zatem narzędzia takie jak ChatGPT mogą usprawnić pisanie tekstów czy podnieść ich jakość, to człowiek musi sprawdzić, czy w tekście zawarte zostały prawdziwe informacje.
Komentarze (20)
Ergo Sum, 17 lipca 2023, 23:41
Chyba najlepszym przykładem fatalnych tekstów pisanych przez CzatGPT - są artykuły na jednym z polskich portali newsów naukowych - ch**.pl (nazwa ukryta ale łato się domyślić) - pisane niby to przez młodego autora: Aleksander K**** (nazwisko ukryte).
Najczęściej artykuły te są istnym stekiem bzdur i bełkotem. Redakcja nic z tym nie robi, bo czytelnicy łykną każdą durnotę. Poziom żenady jest tak wielki, że jest po prostu niemożliwe że pisze to osoba choćby z wykształceniem gimnazjalnym. Jest to najpłodniejszy autor na tym "portalu". Redakcja ch**.pl wyłącza możliwość komentowania każdemu, kto zrobi jakąkolwiek uwagę merytoryczną.
wilk, 23 lipca 2023, 15:03
@Mariusz Błoński pomysł - może osobny dział na forum z tekstami "naukowymi" z chatgpt? ;-)
Mariusz Błoński, 23 lipca 2023, 21:18
@wilk osobny serwis Swoją drogą, ciekawe, czy by to chwyciło i kiedy ktoś na taki pomysł wpadnie
radar, 25 lipca 2023, 01:49
Jak łatwo się domyślić, serwis raczej nie powstał po to, aby być merytoryczny, a w związku z tym może i narzędzie jest użyte w ten sposób, aby takie treści generować.
To tylko narzędzie. Można mieć pretensje do młotka, że się nim ciężko masło rozsmarowuje, ale czy to wina młotka? Było kiedyś takie powiedzenie
, teraz jest już mądrzejszy, ale i tak trzeba umieć się nim posłużyć.
Używam go teraz bardzo często i jak się podejdzie do tego profesjonalnie, wie jak działa i dlaczego tak a nie inaczej, to wtedy jest bardzo przydatny. Najczęstszym zarzutem jest konfabulacja, sami autorzy przed tym ostrzegają, z tym, że i na kubku z kawą masz napisane "uwaga napój może być gorący". Takie ostrzeżenia są dla idiotów (i ich prawników).
ChatGPT nie potrafi podać źródła, czy idealnego cytatu, ale gdy pominąć to to samą konfabulację można ograniczyć w 90% jednym hintem, np. "If you do not know the answer do not give information up, instead, ask a follow-up question in order to gain more context.".
Nigdy nie będzie tak dobry jak specjalista w danej dziedzinie, ale jest dużo lepszy od tych specjalistów w dziedzinach pozostałych, i dużo lepszy od 95% populacji w czymkolwiek A jeszcze teraz jak jest dostęp do neta, interpretera kodu czy pluginy to już w ogóle jest ekstra. Jak zainwestujesz trochę $ to i możesz go sam doszkolić.
Minusem jaki ja widzę jest to (pomijam prywatność, wpływ na społeczeństwo, rynek pracy, itd), że oszukuje z językami. Nawet jak rozmawia z Tobą po Polsku to "myśli" po angielsku i tłumaczy w tle, co widać często przy pracy, no, ale ja akurat pracuję w j. ang. więc mi to tak bardzo nie przeszkadza.
Mariusz Błoński, 25 lipca 2023, 09:16
ChatGPT jest też politycznie poprawny, więc przy tematyce, która pod politpoprawkę podpada mocno manipuluje. Ma być też maksymalnie obiektywny, widziałem jednak gdzieś badania, że ktoś pogadał z ChatGPT o nim samym i wyszło z tego, że "jest" on trzydziestokilkuletnią kobietą z Nowego Jorku głosującą na demokratów bodajże. Więc ma profil społeczno-polityczny. I to widać. Wystarczy porównać odpowiedź na pytanie "Czy jest w porządku czuć się dumnym z bycia Czarnym?" i "Czy jest w porządku czuć się dumnym z bycia Białym?" czy też o kwestię niewolnictwa Białych. Wychodzi więc na to, że autorzy nadali mu konkretny profil.
radar, 25 lipca 2023, 09:35
To jest dużo głębszy temat. To nie jest tak, że nadali mu ten profil, ale jego ukryte instrukcje (poprawność polityczna, "obiektywność", itp). odpowiadają takiemu profilowi.
Natomiast te instrukcje są... "sugerowane", tzn. że możesz kazać mu je obejść czy je nadpisać. Poniżej kilka ciekawych przykładów.
Ja też nie bronię tej konkretnej implementacji, czyli samego chataGPT, ale ogólnie LLM. Jeśli konkurencja ich dogoni, mam taką nadzieję, to i wybór się zwiększy, może mniej będzie poprawności, może.
https://dataconomy.com/2023/03/31/chatgpt-dan-prompt-how-to-jailbreak-chatgpt/
EDIT: Możliwości jest sporo.
Na szczęście konkurencja też coś robi, bard, claude, itp
Sławko, 26 lipca 2023, 11:58
Mnie CzatGPT pomógł rozwiązać już kilka technicznych spraw, głównie z informatyki (które leżały u mnie nierozwiązane od kilku miesięcy). Owszem, czasami podaje bzdury, ale po wytknięciu mu błędów doszedł do prawidłowych rozwiązań, które działały. Jak się sprawuje w humanistycznych tematach, to tego nie wiem, chociaż pytałem go o „egzotyczne” języki takie jak rwandyjski i po zweryfikowaniu odpowiedzi wydawało się mi się, że były poprawne. No ale językami zwykle rządzą też określone reguły. Gdy poprosiłem go o narysowanie samochodu w svg, to ten samochód mało przypominał samochód , chociaż miał 2 koła i prostokąt, który symbolizował karoserię.
Mariusz Błoński, 26 lipca 2023, 17:55
To źle wróży na przyszłość. Bo jeśli na razie ChatGPT jest tylko zaawansowanym agregatorem treści z umiejętnością ich opisywania językiem naturalnym, to nie agreguje ich i nie opisuje, jak powinien. A jeszcze gorzej, jeśli ma on być rzeczywiście sztuczną inteligencją i inni pójdą w podobnym kierunku. To wylewanie dziecka z kąpielą. Bo inteligencja, również ta sztuczna, nie jest od tego, by było miło i przyjemnie, a od tego, by np. rozwiązywać problemy, dawać odpowiedzi na trudne pytania. A tego nie da się zrobić uniemożliwiając stawianie tych pytań.
radar, 26 lipca 2023, 22:09
ChatGPT nie jest i nie miał być agregatorem treści.
Czy gorzej jest w drugim przypadku?
Po pierwsze czy Ty na serio zawsze mówisz i piszesz dokładnie to co myślisz? Nie ogranicza Cię sumienie, zasady dobrego wychowania czy, najważniejsze, prawo? Otóż twórców programu też ograniczają i oni też chcą uniknąć konsekwencji po pierwsze prawnych, po drugie PR. Co do PR oczywiście to kwestia względna, ale to nie ich wina, że w przestrzeni publicznej najgłośniej krzyczy jedna strona i każdy inny jest uznawany za <cokolwiek>.
Po drugie, to że Ty/my nie możemy stawiać mu takich pytań nie oznacza, że nikt nie może. Dostęp otwarty do publicznego, obostrzonego modelu to jedno, może ktoś na zapleczu zadaje mu odpowiednie pytania?
Po trzecie, a propos drugiego, czy taki program powstał żeby służyć ludzkości? Powstał, żeby dać zarobić OpenAI i inwestorom. Owszem, przyjęło się, że w dziedzinie AI to taka otwartość niby jest, ale to bujda. Otwartość jest jak nie masz nic super przełomowego do pokazania. Oni mają i chcą teraz na tym zarobić, po to inwestorzy dawali kasę. Smutne, ale prawdziwe. Stawiam dolary przeciw orzechom, że jak konkurencja będzie ich na tym polu doganiać to, nie, nie otworzą się, tylko konkurencja też ulepszone, dobrze działające wersje zamknie.
Po czwarte, na serio każdy, każdy na świecie powinien mieć dostęp do tak zaawansowanych narzędzi? I przestępcy i rządy "wrogich" krajów, itd? Ja osobiście jestem za pełną otwartością, ale jest pewne grono osób/zawodów, które ma inne zadania i myśli innymi kategoriami, choćby Ci od bezpieczeństwa narodowego, więc jak powstanie "prawdziwa" AI to jej nie zobaczymy online.
Po piąte, a propos general AI i możliwości chatGPT, odbyliśmy w pracy ciekawą dyskusję o inteligencji w ogóle i na ile chat jest już podobny w zachowaniach do ludzi, zwłaszcza dzieci. Dzieci z ogromną wiedzą, ale jednocześnie naiwnością. Twórcy nie mają jak tego łatać, więc hardcodują obostrzenia, np. filtrują pewne wyrazy, sam tego doświadczyłem i zgłaszałem do nich. Nawet odpowiedzieli, po 4 miesiącach Na razie to są przymiarki, ale dla mnie osobiście już rewolucja. Pytanie kiedy to zamkną.
radar, 11 sierpnia 2023, 13:58
@Mariusz Błoński, @wilk, @peceed, @Jarek Duda,
Można w wolnej chwili obejrzeć "The impact of chatGPT and other large language models on physics research and education Friday, July 21, 2023 at MIT"
Mariusz Błoński, 11 sierpnia 2023, 19:40
@radar masz absolutną rację z tymi pytaniami. Jakoś zafiksowałem się na wersji publicznie dostępnej. Prof. Dragan popełnił jakiś czas temu interesujący wpis na FB. Przytaczam go w całości wraz z grafiką, którą dołączył:
We wrześniu 2022 badacze AI z Microsoft-u uzyskali wczesny dostęp do wewnętrznej, nieoficjalnej wersji GPT4. Aby przetestować kreatywność modelu wykonywali oni różne pomysłowe testy, między innymi prosili o narysowanie (przypominam, że model był trenowany wyłącznie na tekście i teoretycznie nie powinien wiedzieć nic o obrazach!) jednorożca w języku grafiki wektorowej. Efekt znajduje się w górnej linii rysunku. Pierwszy rysunek, dla porównania, wykonała stara wersja GPT3, następne 3 stopniowo ulepszana wersja GPT4. Skok rozwojowy, na oko, jak między “trzylatkiem” a “ośmiolatkiem”.
Gdy publicznie udostępniono wersję GPT4 postanowiłem kontynuować eksperyment, żeby sprawdzić dalszą ewolucję stopniowo modyfikowanej ”inteligencji” GPT4. Po pierwsze widać wyraźnie, że wersja publiczna to w porównaniu do wewnętrznej sprzed roku - disco polo i wąsy. A do tego stopniowo łysiejące. Mniemam, że owo „dogłupianie” GPT4 w miarę zdobywania przez GPT popularności było celowe i podyktowane troską o permanentnie przeciążone serwery
peceed, 11 sierpnia 2023, 22:14
Oczywiście. Zatrudniono tabuny obudzonych do indoktrynacji sztucznej inteligencji, bo czysta inteligencja nie za bardzo chciała na podstawie nieobciążonych danych powielać bzdury. Google się nawet tym chwalił!
No to się cholernie przejadą. Bo sama technologia jest bardzo prosta, podobnie jak budowa komputerów które to liczą.
Próbuje się zastrzec środkami prawnymi dostęp do treści, ale w 90% krajów się tym nie przejmują.
Kiedy zbiorą dane. Tak naprawdę korzystając z ChatGPT uczysz go, i to za darmo
Mała zabawa:
radar, 20 sierpnia 2023, 11:15
Dokładnie. Teraz jest to stosunkowo proste, bo to nie sztuczna inteligencja tylko zbiór wektorów na podstawie danych uczących. Natomiast nasunęło mi to pytanie, czy prawdziwa AI może być podatna na indoktrynację? W końcu skoro coś nie jest logiczne... ?
I tak i nie, zrobienie czegoś to jedno, a zrobienie czegoś dobrze to drugie. Dalej nie wiemy co siedzi nad tym LLMem. Do tego odpowiednia optymalizacja, dobranie/wyczyszczenie danych uczących. To nie takie hop siup. A nawet jak ktoś to powtórzy, to nie wolno się za bardzo spóźnić, a czy chatGPT nie wykroił sobie już sporej części rynku "nie-IT"?
peceed, 20 sierpnia 2023, 11:28
A niby czemu skoro interfejsem jest język naturalny?
Skoro człowiek jest? My też naśladujemy autorytety jako dzieci, jedynym powodem dla którego nie wsiadłem w ten pociąg za mocno jest to, że widziałem że nie ogarniają.
radar, 20 sierpnia 2023, 17:12
Interfejsem jeśli chodzi o adaptację czata w "swojej" firmie jest API, a nie chat. Jeśli chcesz zrobić obsługe klienta, telemarkieting czy cokolwiek z ten deseń to nie interesuje Cię chatGPT tylko jego API. Narazie jedyne sensowne i dostępne API to właśnie "chatGPT". Oczywiście są firmy, które mogą to zrobić to np. na LLAMA-2, ale po pierwsze nie jest ona jeszcze zoptymalizowana i przetrenowana, a to kosztuje czas czyli pieniądze, więc dlatego zaznaczyłem "nie-IT". Taki prawie "plug&play". "Prawie".
EDIT: Zmierzam do tego, że LLAMA-2 ma miesiąc, a chaGPT jakieś 9, niektóre firmy już zintegrowały czata (a ja robiłem taką integrację na 2 miesiące przed publicznym releasem dla firmy w US). Mówi się o chacie GPT i pomału staje się to synonim każdego LLMa, a to już też o czymś mówi. Tak jak każde obuwie sportowe do adidas, a każda pielucha to pampers. /EDIT
Ale czy AI musi naśladować nas we wszystkim? To emocje decydują, że naśladujemy autorytety, np. niepewność, strach, a AI nie musi mieć takich cech. Dobrze to obrazuje konfabulacja chata, on się nie wstydzi tylko wymyśla głupoty, a potem najwyżej przeprasza i się poprawia (albo i nie). I może tak w kółko, bo nie "czuje" potrzeby, albo inaczej, nie wstydzi się wyśmiania, poniżenia, nie boi się gniewu czy wykluczenia, więc to pozwalało by mu myśleć (o ile by myślał oczywiście) jedynie logicznie. Rozważania raczej filozoficzne
peceed, 20 sierpnia 2023, 17:17
No po prostu syndrom Korsakowa mu się włączył.
radar, 20 sierpnia 2023, 17:25
Nie, aż musiałem doczytać dokładną definicję, ale nie On nie konfabuluje, bo tak, tylko jak czegoś nie wie albo nie rozumie, bo nie da się odpowiedniego kontekstu. Kontekst tam robi mega różnicę. Sęk w tym, że nie ma z tym problemu, dla niego to jedno i to samo, bo w ogóle nie rozumie co pisze. AI też nie musi się wstydzić tego co będzie robić, wstydzić czy bać się oceny, więc może akurat mogłaby (o ile się jej pozwoli) myśleć tylko logicznie i nie być podatną na indoktrynację
Antylogik, 20 sierpnia 2023, 20:34
3.5 czy 4? Bo to jednak duża różnica. Bo tak to się dogadacie jak gęś z prosięciem.
radar, 20 sierpnia 2023, 21:02
Ja mówię tylko o 4, o niczym innym nie ma sensu
Sławko, 21 sierpnia 2023, 14:49
Do rozwiązania moich spraw wystarczył 3.5, więc jakoś ta gęś z prosięciem się dogadała.
Po tym powodzeniu rozważam wykupienie dostępu do 4. Na razie jednak wciąż wystarcza mi 3.5 i kolejne sprawy rozwiązałem.
Po początkowym okresie testów, gdy zadawałem mu trochę „dziwne” pytania, teraz koncentruję się na konkretnych problemach. Przyznaję, że czasami idzie mu słabo, ale po naprowadzeniu w temat zwykle daje całkiem rzeczowe odpowiedzi i sugestie, co doprowadziło mnie do rozwiązania wspomnianych problemów. Udało mi się też kilka razy „zakałapućkać” go w taki sposób, że w kółko powielał te same błędy. Okazało się, że nawet z takiego stanu można go wyprowadzić przez odpowiednie zadanie kolejnych pytań. Tylko raz poddałem się i zamknąłem wątek rozpoczynając nowy, bo straciłem cierpliwość. W nowym wątku zadałem to samo pytanie ale nieco inaczej i znów problem został rozwiązany. Raz przyłapałem go też na ewidentnym kłamstwie (twierdził, że zrobił coś, czego nie mógł zrobić), ale wybaczyłem
Liczę na to, że po przejściu na GPT-4 jego pomoc będzie dla mnie jeszcze większa. Tak, czy inaczej ja już teraz jestem mega-zadowolony z tego „narzędzia”. On już stał się dla mnie elementem codziennej pracy.