Diagnoza z Twittera
Zdaniem naukowców z Microsoft Research, analiza wpisów na Twitterze pozwala przewidzieć, u której kobiety pojawi się... depresja poporodowa. Eksperci odkryli, że badając język wpisów można wyłowić osoby podatne na tę przypadłość. Co ciekawe, analizowane wpisy wcale nie muszą dotyczyć ciąży czy dziecka. Wskazówki tkwią bowiem w samym języku komunikatów. Jeśli jest on generalnie negatywny, kobieta używa takich słów jak „nienawidzę”, „rozczarowana”, „nieszczęśliwa”, zwiększa częstotliwość używania słowa „ja” oraz przekleństw czy wykrzyknień, to z dużym prawdopodobieństwem zapadnie na depresję poporodową.
We wpisach kobiet cierpiących na depresję poporodową zauważyliśmy pewne charakterystyczne wzorce językowe. Postanowiliśmy sprawdzić, czy pojawiają się też one we wpisach sprzed porodu. Okazało się, że tak - mówi Eric Horovitz, jeden z dyrektorów Microsoft Research.
Odkryliśmy, że na 2-3 tygodnie przed porodem te wzorce pojawiają się u 80% kobiet, które cierpią później na depresję poporodową. To bardzo subtelne zmiany. Takie jak na przykład częstsze używanie słowa „sfrustrowana” czy więcej przekleństw - dodaje Horovitz.
Naukowcy przeanalizowali wpisy 2929 kobiet, które pojawiały się na trzy miesiąc przed porodem i trzy miesiące po nim. U 15% analizowanych w ten sposób kobiet zdiagnozowano depresję poporodową. Na Twitterze kobiety te zadawały więcej pytań, zmniejszył się odsetek pozytywnych wpisów, a zwiększył takich, które wyrażały złość i lęk.
Skądinąd wiadomo, że sporo przypadków depresji poporodowej unika uwadze lekarzy, gdyż otoczenie spodziewa się, iż po urodzeniu dziecka kobieta jest szczęśliwa. Okazywanie negatywnych uczuć spotyka się z niezrozumieniem. Zdaniem Horovitza możliwe będzie stworzenie automatycznego oprogramowania, które przeanalizuje wpisy przyszłej matki i ewentualnie skieruje ją do specjalisty. To nie jest zadanie dla Microsoftu, ale organizacje zajmujące się działalnością społeczną mogłyby stworzyć program na smartfona, który ostrzeże przyszłą matkę, jeśli wykryje u niej oznaki depresji - mówi.
Analizy przeprowadzone przez Microsoft Research są zgodne z badaniami profesora Jamesa Pennebakera z Wydziału Psychologii University of Texas. Uczony odkrył, że ważne jest nie to, co ludzie mówią online, ale jak to mówią, jak używają słów funkcyjnych, takich jak przyimki czy zaimki. Słowa funkcyjne mówią o tym, jak dana osoba analizuje swoje otoczenie oraz w jakim stanie umysłowym się znajduje - wyjaśnia Pennebaker. Uczony sądzi, że w przyszłości oprogramowanie takie, które mogłoby pomagać młodym matkom, zostanie wykorzystane np. do analizy psychologicznej postaci historycznych. Na podstawie pozostawionych przez nie tekstów pamiętników czy listów będziemy mogli określać ich stan psychiczny.
Komentarze (7)
wilk, 18 lutego 2014, 23:10
Ludzie generują zdecydowanie zbyt dużo własnej (nikomu niepotrzebnej) radosnej twórczości, skoro tak łatwo przeprowadzić stylometrię... Lorem ipsum dolor sit amet, consectetur adipiscing elit. Duis aliquam neque commodo quam dictum, eget rhoncus velit aliquam. Donec at nunc et tortor tristique hendrerit.
pogo, 19 lutego 2014, 12:58
W Polsce to nie zadziała. U nas wszyscy wiecznie narzekają, wkurzają się i klną. Nie da się wychwycić zwiększenia takich zachowań, bo więcej już się nie da umieścić
Usher, 20 lutego 2014, 16:06
Astroboy, 20 lutego 2014, 18:40
Jasne. Tylko kto ma to robić, za czyje pieniądze, i po co?
A co na to masochiści? Jakiś wilczy skowyt słyszę...
Usher, 24 lutego 2014, 05:15
Astroboy, 24 lutego 2014, 08:54
Pytanie pozostaje, Twoja odpowiedź nie na temat. I co mają filtry antyspamowe do powszechnej inwigilacji, zwłaszcza portali społecznościowych? Tu akurat widzę częściową odpowiedź (jeśli chodzi o to "kto"): firmy farmaceutyczne. Ukierunkowana reklama antydepresantów.
Usher, 28 lutego 2014, 01:57
Filtry antyspamowe to dobrze znany przykład uczącego się oprogramowania wykorzystującego analizę statystyczną tekstu wiadomości. Programy są ogólnie dostępne, w tym open source i darmowe, więc jedyne, co trzeba zrobić, to zebrać korpus wiadomości i karmić nimi filtry, wskazując, co jest wstrętną mielonką (spam), a co dobrą szyneczką (ham).
Przykład takiego filtra (DSPAM) już wcześniej wskazałem, zatem dziwi mnie brak zrozumienia tematu. Portale społecznościowe te same lub podobne algorytmy analizy statystycznej stosują w celach reklamowych, podobnie robi NSA w celach inwigilacji. Różnica tkwi w tym, pod jakim kątem jest prowadzona analiza, czyli - czym są karmione filtry.