Sztuczna inteligencja zdiagnozuje chorobę na podstawie brzmienia Twojego głosu

0
180
Zdjęcie: Allison Long/Allison Long

Sztuczna inteligencja może wkrótce zdiagnozować chorobę na podstawie brzmienia Twojego głosu.

Głos jest nośnikiem informacji. Okazuje się, że może nawet pomóc zdiagnozować chorobę — a naukowcy pracują nad aplikacją do tego celu.

Narodowe Instytuty Zdrowia finansują ogromny projekt badawczy mający na celu zbieranie danych głosowych i opracowanie sztucznej inteligencji, która mogłaby diagnozować ludzi na podstawie ich mowy.

„Wszystko, od wibracji strun głosowych po wzorce oddychania podczas mówienia, wszystko to oferuje potencjalne informacje na temat Twojego zdrowia” – mówi laryngolożka dr Yael Bensoussan, dyrektorka Zdrowia Centrum Głosu na Uniwersytecie Południowej Florydy i liderka badania.

Ktoś, kto mówi cicho i powoli, może mieć chorobę Parkinsona. Niewyraźne mówienie jest oznaką udaru. Naukowcy mogliby nawet zdiagnozować depresję lub raka. Zespół rozpocznie od zebrania głosów osób cierpiących na schorzenia w pięciu obszarach: zaburzenia neurologiczne, zaburzenia głosu, zaburzenia nastroju, zaburzenia oddechowe oraz zaburzenia pediatryczne, takie jak autyzm i opóźnienia mowy.

Czytaj: Szybsza diagnoza nowotworów? Naukowcy z Wrocławia znaleźli sposób!

Projekt jest częścią programu NIH Bridge to AI, który został uruchomiony ponad rok temu z ponad 100 milionami dolarów finansowania przez rząd federalny, w celu stworzenia wielkoskalowych baz danych opieki zdrowotnej dla medycyny precyzyjnej.

„Naprawdę brakowało nam dużych, tak zwanych baz danych o otwartym kodzie źródłowym”, mówi Bensoussan. „Każda instytucja ma własną bazę danych. Ale stworzenie tych sieci i infrastruktury było naprawdę ważne, aby umożliwić naukowcom z innych pokoleń korzystanie z tych danych”.

Dr Olivier Elemento z Weill Cornell Medicine jest drugim głównym badaczem projektu.
Travis Curry /Olivier Element

To nie pierwszy raz, kiedy naukowcy wykorzystali sztuczną inteligencję do badania ludzkich głosów, ale po raz pierwszy dane będą zbierane na tym poziomie — projekt jest efektem współpracy USF, Cornell i 10 innych instytucji.

„Widzieliśmy, że wszyscy wykonują bardzo podobną pracę, ale zawsze na niższym poziomie” – mówi Bensoussan. „Musieliśmy zrobić coś jako zespół i zbudować sieć”.

Czytaj: To oficjalne: „mowa dziecięca” łączy całą ludzkość

Ostatecznym celem jest stworzenie aplikacji, która mogłaby ułatwić dostęp do społeczności wiejskich lub zaniedbanych społeczności, pomagając lekarzom rodzinnym w kierowaniu pacjentów do specjalistów. W dłuższej perspektywie iPhone będzie mógł wykryć zmiany w głosie, takie jak kaszel, i doradzić, aby zwrócić się o pomoc lekarską.

Aby się tam dostać, naukowcy muszą zacząć od gromadzenia danych, ponieważ sztuczna inteligencja może być tylko tak dobra, jak baza danych, z której się uczy. Do końca czterech lat mają nadzieję zebrać około 30 000 głosów, z danymi dotyczącymi innych biomarkerów — takich jak dane kliniczne i informacje genetyczne — które będą pasować.

„Naprawdę chcemy zbudować coś skalowalnego”, mówi Bensoussan, „ponieważ jeśli możemy zbierać dane tylko w naszych laboratoriach akustycznych, a ludzie muszą przychodzić do instytucji akademickiej, aby to zrobić, to w pewnym sensie jest to sprzeczne z celem”.

Koniecznie zajrzyj na f7.pl

Jest kilka przeszkód. HIPAA — prawo regulujące prywatność w medycynie — nie jest jasne, czy naukowcy mogą dzielić się głosami.

„Powiedzmy, że przekazujesz swój głos naszemu projektowi” – mówi Yael Bensoussan. „Do kogo należy ten głos? Co wolno nam z nim zrobić? Co mogą z nim zrobić badacze? Czy można go skomercjalizować?”

Podczas gdy inne dane dotyczące zdrowia można oddzielić od tożsamości pacjenta i wykorzystać do badań, głosy są często rozpoznawalne. Każda instytucja ma inne zasady dotyczące tego, co może być udostępniane, a to otwiera wszelkiego rodzaju pytania etyczne i prawne, które zbada zespół bioetyków.