Co robi technika, aby pomóc w zapobieganiu samobójstwom

Chociaż nie da się zapobiec każdemu samobójstwu, istnieje wiele rzeczy, które mogą pomóc w obniżeniu ryzyka. A niektóre z nich są tak blisko, jak twój smartfon.

Systemy opieki zdrowotnej, firmy technologiczne i instytucje badawcze badają, jak mogą pomóc w zapobieganiu samobójstwom. Szukają możliwości wykorzystania technologii w ogóle - a sztucznej inteligencji (AI) w szczególności - do wychwytywania subtelnych oznak ryzyka samobójstwa i ostrzegania człowieka do interwencji.

"Technologia, choć nie jest pozbawiona wyzwań, oferuje niesamowite możliwości" - mówi dr Rebecca Bernert, dyrektor i założycielka Suicide Prevention Research Laboratory w Stanford University School of Medicine w Palo Alto, CA.

Na przykład, Bernert mówi, że jeśli AI może oznaczyć zagrożonych pacjentów na podstawie ich dokumentacji zdrowotnej, ich lekarze podstawowej opieki zdrowotnej mogą być lepiej przygotowani do udzielenia im pomocy. Podczas gdy specjaliści od zdrowia psychicznego są specjalnie przeszkoleni w tym zakresie, badania pokazują, że wśród osób, które umierają przez samobójstwo, około 45% widzi swojego lekarza podstawowej opieki zdrowotnej w ostatnim miesiącu życia. Tylko 20% widzi specjalistę od zdrowia psychicznego.

Oto niektóre z postępów technologicznych, które są w fazie rozwoju lub już się dzieją.

Wskazówki z twojego głosu

Naukowcy z Worcester Polytechnic Institute w Worcester, MA, budują program oparty na sztucznej inteligencji o nazwie EMU (Early Mental Health Uncovering), który wydobywa dane ze smartfona, aby ocenić ryzyko samobójstwa użytkownika telefonu.

Technologia ta jest wciąż w fazie rozwoju. Może mieć potencjał, aby stać się częścią aplikacji zdrowotnej, które można pobrać do telefonu - być może na sugestię dostawcy usług medycznych.

Po przyznaniu wszystkich wymaganych uprawnień, aplikacja wdrożyłaby AI do monitorowania ryzyka samobójstwa przez telefon. Wśród zawartych funkcji jest opcja mówić do analizatora głosu aplikacji, za pomocą dostarczonego skryptu lub upoważniając aplikację do nagrywania segmentów rozmów telefonicznych. Aplikacja może wykryć subtelne cechy w głosie, które mogą wskazywać na depresję lub myśli samobójcze.

"Istnieją znane cechy głosu, których człowiek nie może wykryć, ale które AI może wykryć, ponieważ została przeszkolona do tego na dużych zbiorach danych" - mówi psycholog Edwin Boudreaux, PhD. Jest on wiceprezesem ds. badań w Departamencie Medycyny Ratunkowej w UMass Chan Medical School.

"Może wziąć głos i wszystkie te inne źródła danych i połączyć je, aby dokonać solidnej predykcji, czy twój nastrój jest depresyjny i czy miałeś idee samobójcze", mówi Boudreaux, który nie ma żadnych udziałów finansowych w firmie tworzącej tę aplikację. "To jak biopsja telefonu".

Dane ze smartfonów, za zgodą użytkownika, mogłyby być wykorzystywane do wysyłania alertów do samych użytkowników telefonów. Mogłoby to skłonić ich do szukania pomocy lub przeglądu planu bezpieczeństwa. A być może mogłoby to zaalarmować dostawcę usług zdrowotnych danej osoby.

Aplikacje nie wymagają obecnie zgody rządu na poparcie swoich twierdzeń, więc jeśli używasz jakiejkolwiek aplikacji związanej z zapobieganiem samobójstwom, porozmawiaj o tym ze swoim terapeutą, psychiatrą lub lekarzem.

Dzielenie się wiedzą

Google pracuje nad udostępnieniem osobom zagrożonym samobójstwem takich zasobów, jak Krajowy Telefon Samobójczy. Udostępnia też swoją wiedzę na temat sztucznej inteligencji organizacji Trevor Project, infolinii dla samobójców LGBTQ, aby pomóc jej w identyfikacji rozmówców o najwyższym ryzyku i szybszym udzieleniu im pomocy.

Gdy ktoś w kryzysie kontaktuje się z Trevor Project przez SMS, czat lub telefon, odpowiada na trzy pytania wstępne, zanim zostanie połączony z pomocą w kryzysie. Google.org Fellows, program charytatywny prowadzony przez Google, pomógł Trevor Project wykorzystać komputery do identyfikacji słów w odpowiedziach na pytania wstępne, które były powiązane z najwyższym, najbardziej bezpośrednim ryzykiem.

Kiedy osoby w kryzysie używają niektórych z tych słów kluczowych w odpowiedziach na pytania wstępne The Trevor Project, ich zgłoszenie przesuwa się na przód kolejki po wsparcie.

Kultura twardości

Być może wiesz już, że samobójstwa stanowią szczególne ryzyko wśród wojskowych i policjantów. Bez wątpienia słyszeliście też o samobójstwach wśród pracowników służby zdrowia podczas pandemii.

Ale jest jeszcze jedna dziedzina o wysokim wskaźniku samobójstw: budownictwo.

Według CDC, pracownicy budowlani są dwukrotnie bardziej narażeni na śmierć samobójczą niż osoby wykonujące inne zawody i 5 razy bardziej narażeni na śmierć samobójczą niż z powodu urazu związanego z pracą. Wysoki wskaźnik urazów fizycznych, przewlekły ból, niestabilność pracy i izolacja społeczna wynikająca z konieczności przemieszczania się na duże odległości w poszukiwaniu pracy mogą mieć tu swój udział.

JobSiteCare, firma zajmująca się telezdrowiem, przeznaczona dla pracowników budowlanych, pilotuje zaawansowaną technologicznie odpowiedź na samobójstwa w tej branży. Firma oferuje opiekę telezdrowotną pracownikom budowlanym poszkodowanym na placu budowy za pomocą tabletów przechowywanych w szafce w przyczepie medycznej na placu budowy. Teraz rozszerza tę opiekę o opiekę nad zdrowiem psychicznym i reagowanie kryzysowe.

Pracownicy mogą uzyskać pomoc w ciągu kilku sekund za pośrednictwem tabletu w przyczepie. Mają również dostęp do 24/7 infolinii i ciągłej opieki nad zdrowiem psychicznym poprzez telezdrowie.

"Tele-zdrowie psychiczne było jednym z dużych sukcesów w telemedycynie", mówi Dan Carlin, MD, założyciel i dyrektor generalny JobSiteCare. "W budownictwie, gdzie twoja praca przenosi cię z miejsca na miejsce, telemedycyna będzie podążać za tobą, gdziekolwiek się udasz".

Aplikacja "Suicide Safety Plan

Aplikacja Jaspr ma na celu pomoc osobom po próbie samobójczej, zaczynając jeszcze w szpitalu. Oto jak to działa.

Dostawca opieki zdrowotnej zaczyna używać aplikacji z pacjentem w szpitalu. Wspólnie opracowują plan bezpieczeństwa, który ma pomóc w zapobieganiu przyszłym próbom samobójczym. Plan bezpieczeństwa to dokument, który pracownik służby zdrowia opracowuje z pacjentem, aby pomóc mu w radzeniu sobie z kryzysem psychicznym w przyszłości - oraz z czynnikami stresogennymi, które zazwyczaj wywołują u niego myśli samobójcze.

Pacjent pobiera aplikację towarzyszącą Jaspr w domu. Może uzyskać dostęp do swojego planu bezpieczeństwa, narzędzi do radzenia sobie z kryzysem w oparciu o preferencje określone w planie bezpieczeństwa, źródeł pomocy w czasie kryzysu oraz zachęcających filmów wideo od prawdziwych ludzi, którzy przeżyli próbę samobójczą lub stracili bliską osobę w wyniku samobójstwa.

A co jeśli SI się pomyli?

Zawsze istnieje szansa, że SI źle oceni, kto jest zagrożony samobójstwem. Jest ona tak dobra, jak dane, które zasilają jej algorytm.

Fałszywy wynik pozytywny" oznacza, że ktoś został zidentyfikowany jako zagrożony - ale nie jest. W tym przypadku oznaczałoby to nieprawidłowe odnotowanie kogoś jako zagrożonego samobójstwem.

W przypadku "fałszywego negatywu", ktoś, kto jest zagrożony, nie jest oznaczony.

Ryzyko szkód wynikających zarówno z fałszywych negatywów, jak i fałszywych pozytywów jest zbyt duże, by używać SI do identyfikacji ryzyka samobójstwa, zanim badacze upewnią się, że to działa, mówi Boudreaux.

Zauważa, że Facebook wykorzystał AI do identyfikacji użytkowników, którzy mogą być zagrożeni samobójstwem.

Meta, firma macierzysta Facebooka, nie odpowiedziała na prośbę lekarza o komentarz w sprawie wykorzystania przez nią SI do identyfikacji i rozwiązania problemu ryzyka samobójstwa wśród swoich użytkowników.

Zgodnie ze swoją stroną internetową, Facebook pozwala użytkownikom zgłaszać posty dotyczące, w tym filmy Facebook Live, które mogą wskazywać, że dana osoba jest w kryzysie związanym z samobójstwem. AI również skanuje posty i, gdy uznane za stosowne, sprawia, że opcja dla użytkowników do zgłaszania postu bardziej widoczne. Niezależnie od tego, czy użytkownicy zgłaszają post, SI może również skanować i oznaczać posty na Facebooku i filmy na żywo. Pracownicy Facebooka analizują posty i filmy oflagowane przez użytkowników lub przez SI i decydują, jak się nimi zająć.

Mogą skontaktować się z osobą, która stworzyła post z poradą, aby dotrzeć do przyjaciela lub infolinii kryzysowej, takich jak National Suicide Prevention Lifeline, który w tym miesiącu uruchomił swój trzycyfrowy numer 988. Użytkownicy mogą kontaktować się z liniami kryzysowymi bezpośrednio przez Facebook Messenger.

W niektórych przypadkach, gdy post wskazuje na pilne zagrożenie, Facebook może skontaktować się z departamentem policji w pobliżu użytkownika Facebooka w potencjalnym kryzysie. Policjant jest wtedy wysyłany do domu użytkownika w celu sprawdzenia samopoczucia.

Platforma mediów społecznościowych TikTok, której przedstawiciele również odmówili wywiadu dla tego artykułu, ale przekazali informacje ogólne za pośrednictwem poczty elektronicznej, stosuje podobne protokoły. Obejmują one łączenie użytkowników z infoliniami kryzysowymi i zgłaszanie pilnych postów do organów ścigania. TikTok udostępnia również numery infolinii i inne zasoby kryzysowe w odpowiedzi na wyszukiwania związane z samobójstwem na platformie.

Obawy dotyczące prywatności

Możliwość platform mediów społecznościowych kontaktujących się z policją przyciągnęła krytykę ze strony ekspertów prywatności, a także ekspertów zdrowia psychicznego, takich jak Boudreaux.

"To jest okropny pomysł" - mówi. "Facebook wdrożył go bez wiedzy użytkowników, że AI działa w tle i jakie będą konsekwencje, jeśli AI coś zidentyfikuje. Wysłanie policjanta może tylko pogorszyć sytuację, zwłaszcza jeśli jesteś mniejszością. Oprócz tego, że jest to zawstydzające lub potencjalnie traumatyzujące, zniechęca ludzi do dzielenia się, ponieważ złe rzeczy dzieją się, gdy się dzielisz."

Obawy o prywatność są powodem, dla którego algorytm, który mógłby wysyłać posty z Facebooka do organów ścigania, jest zakazany w Unii Europejskiej - czytamy w Journal of Law and the Biosciences.

Konsekwencje dla ludzi fałszywie zidentyfikowanych jako wysokie ryzyko, wyjaśnia Boudreaux, zależą od tego, jak organizacja angażuje się w rzekomo zagrożoną osobę. Potencjalnie niepotrzebny telefon od pracownika służby zdrowia może nie wyrządzić takiej szkody, jaką mogłaby wyrządzić niepotrzebna wizyta policji.

Jeśli Ty lub ktoś kogo znasz myśli o samobójstwie, możesz skontaktować się z National Suicide Prevention Lifeline. W Stanach Zjednoczonych możesz zadzwonić, wysłać SMS-a lub czat 988, aby połączyć się z National Suicide Prevention Lifeline od 16 lipca 2022 roku. Możesz również zadzwonić do linii życia na jej oryginalny numer, 800-273-8255. Pomoc jest dostępna 24/7 w języku angielskim i hiszpańskim.

 

 

 

Hot