Sztuczna inteligencja przywróciła głos pacjentce po udarze po prawie dwóch dekadach
W przełomowych badaniach zespół z Uniwersytetu Kalifornijskiego zastosował u pacjentki implanty sztucznej inteligencji, które umożliwiły jej „mówienie”. Ten cud medycyny pomógł Ann Johnson, 48-letniej kobiecie, która nie mogła mówić z powodu udaru pnia mózgu, którego doznała w 2005 roku.
Po prawie dwóch dekadach Ann udało się odzyskać głos, a wszystko dzięki sztucznej inteligencji. Ann pomaga obecnie badaczom z Uniwersytetu Kalifornijskiego w Berkeley i Uniwersytetu Kalifornijskiego w San Francisco w tworzeniu nowych technologii mózgowo-komputerowych, które pewnego dnia mogą umożliwić ludziom mówienie bardziej naturalnie za pomocą cyfrowego awatara naśladującego osobę.
To najnowsze przełomowe odkrycie w medycynie opublikowano w czasopiśmie Nature 23 sierpnia 2023 r. Edward Chang, członek Instytutu Neuronauk Weill na Uniwersytecie Kalifornijskim i pracujący nad tą technologią, powiedział:
„Naszym celem jest przywrócenie pełnego, ucieleśnionego sposobu komunikowania się, który jest dla nas najbardziej naturalnym sposobem rozmawiania z innymi. Te postępy znacznie przybliżają nas do stworzenia realnego rozwiązania dla pacjentów”.
Jak sztuczna inteligencja pomogła pacjentowi odzyskać głos?
Naukowcy wykorzystali nagranie, w którym Ann przemawia podczas ślubu, jako próbkę, aby odtworzyć modulację i ton jej głosu, aby zapewnić możliwie najbardziej autentyczną komunikację.
Aby to osiągnąć, zespół chirurgicznie umieścił cienki jak papier prostokąt składający się z 253 elektrod na powierzchni jej mózgu w obszarach, które wcześniej zidentyfikowali jako kluczowe dla mowy. Elektrody blokowały sygnały mózgowe, które w przypadku braku udaru dotarłyby do twarzy Ann, warg, języka, szczęki i mięśni krtani. Elektrody były połączone z zestawem komputerów kablem podłączonym do złącza przymocowanego do czaszki Ann.
Ann i badacze spędzili tygodnie na programowaniu algorytmów sztucznej inteligencji urządzenia tak, aby rozpoznawało jej określone sygnały mózgowe potrzebne do mówienia. Aby wytrenować komputer w zakresie rozpoznawania wzorców aktywności mózgu związanych z dźwiękami, konieczne było powtarzanie różnych wyrażeń z repertuaru składającego się z 1024 słów .
Zespół wykorzystał oprogramowanie stworzone przez Speech Graphics, firmę produkującą animacje twarzy oparte na sztucznej inteligencji, aby odtworzyć i animować mięśnie twarzy na awatarze Ann. Naukowcy opracowali wyspecjalizowane algorytmy uczenia maszynowego, które umożliwiły oprogramowaniu firmy synchronizację z sygnałami pochodzącymi z mózgu Ann, gdy próbowała ona mówić, i przełożenie ich na ruchy twarzy jej awatara.
Firma pracuje obecnie nad wersją bezprzewodową, dzięki której użytkownik nie będzie musiał być podłączony do komputera.
Po latach terapii Johnson odzyskała zdolność wykonywania drobnych ruchów i wywoływania emocji na twarzy. Przeszła od używania rurki do samodzielnego karmienia miękkimi lub mielonymi pokarmami. A teraz, dzięki sztucznej inteligencji, potrafi nawet „mówić”. Nadal nie wiadomo, kiedy szpitale i organizacje prowadzące badania medyczne zaczną częściej korzystać z tej technologii.
Dodaj komentarz