stub Hjerne-til-stemme-teknologi hjelper lammet mann å snakke flytende - Securities.io
Kontakt med oss

Kunstig intelligens

Hjerne-til-stemme-teknologi hjelper lammet mann å snakke flytende

mm
Hjerne-til-stemme-system muliggjør sanntidskommunikasjon med lammet mann

Et team av ingeniører fra University of California, Davis, har laget et hjerne-til-stemme-system som gjør det mulig for personer som lider av kommunikasjonsforstyrrelser å snakke flytende. Systemet kombinerer et hjerne-datamaskin-grensesnitt (BCI), avansert AI og ny forskning for å støtte sanntids, forståelig og uttrykksfull tale. Hør det du trenger å vite.

Hva er kommunikasjonsforstyrrelser?

Når du tenker på hva som definerer deg, kan det være stilen eller perspektivet ditt. Få ville sagt hva de mener. Men hver gang du snakker, hører du stemmen din, som bekrefter at det er deg. Følgelig er stemmen din en viktig del av identiteten din. Følgelig kan det å miste denne delen av deg selv være skadelig for din mentale helse.

Dessverre er dette scenariet virkeligheten for millioner av mennesker som lider av nevrologiske tilstander som kan begrense deres evne til å snakke flytende. Tilstander som hjerneslag, dysartri og dysfoni kan føre til utydelig eller usammenhengende tale, noe som begrenser en persons evne til å kommunisere effektivt fremover.

Dette scenariet er ikke sjeldent. Ifølge nylige rapporter studierNesten 800,000 1 mennesker vil lide av hjerneslag i år. De samme dataene tyder på at én av tre slagofre vil oppleve en eller annen form for kommunikasjonsproblemer etter hendelsen. Disse plagene er ødeleggende for pasienten og kan føre til depresjon og andre skadelige tilstander.

Hvordan hjerne-datamaskin-grensesnitt (BCI-er) hjelper kommunikasjon

Heldigvis har ingeniører lagt ned mye arbeid i forsøk på å løse disse problemene. Fra datamaskiner styrt av pust til programvare for øyesporing, har teknologien sett på som noen løsninger. I den grad blir hjerne-datamaskingrensesnitt av mange sett på som den logiske utviklingen av denne teknologien.

Helt siden Hans Berger registrerte elektrisk hjerneaktivitet på 1920-tallet, har forskere forsøkt å bruke disse signalene til å kikke inn i hjernens funksjonalitet. Det tok imidlertid nesten 80 år med forskning før de var i stand til å begynne å dekode nevronale avfyringer for å reprodusere bilder og bevegelser.

I dag blir BCI-er sett på som en fremvoksende teknologi med anvendelser innen VR, automatisering, systemadministrasjon og medisinsk sektor. Spesielt innen medisinsk sektor har disse enhetene blitt brukt til å hjelpe de som lider av mobilitets- eller kommunikasjonsforstyrrelser.

Interessant nok muliggjorde de første BCI-ene bedre kommunikasjon mellom pasienter og deres pårørende. Disse tidlige systemene var avhengige av en tekstskjerm for å kommunisere. Senere ble tekstsystemet oppdatert for å lese ordene høyt, noe som skapte taleresponser. Selv om de hørbare responsene var nyttige, manglet de enhver menneskelig følelse.

Begrensninger ved tradisjonelle BCI-talesystemer

Det har vært flere begrensende faktorer som har svekket suksessen til BCI-er så langt. For det første er tekstkommunikasjonsmetoden ikke naturlig. Den er klumpete, og timingen er feil sammenlignet med å snakke med en enkeltperson.

De forsinkede responstidene til talefunksjonen og den robotiske stemmen hindrer også brukeren i å føle at man har en normal samtale med venner. Viktige aspekter som muligheten til å høre stemmen din, avbryte eller til og med uttale ord manglet i denne tilnærmingen.

Hjerne-til-stemme-studie

Heldigvis kan et team av forskere ha funnet ut hvordan man kan løse disse problemene etter flere tiår med forskning. Den nylige «En øyeblikkelig stemmesyntese-nevroprotese" studere1 introduserer en ny hjerne-til-stemme-nevroprotese som umiddelbart kan oversette hjerneaktivitet til tale. Selv om den fortsatt er i en tidlig fase, har den potensial til å forbedre millioner av liv globalt.

I likhet med forgjengerne lar enheten brukerne «snakke» gjennom en datamaskin. Denne tilnærmingen er imidlertid avhengig av sensorer som kirurgisk implanteres i hjernens Broca- og Wernickes områder. Dette er områdene i hjernen som er ansvarlige for å produsere tale.

Mer spesifikt gjør fire mikroelektrodematriser som inneholder 256 mikroelektroder det mulig for ingeniørene å kartlegge nevral aktivitet til tiltenkte lyder. Det er verdt å merke seg at systemet kan dekode paralingvistiske trekk ved å tyde intrakortikal aktivitet med mindre enn ett sekunds forsinkelse.

AI-algoritmer brukt i hjerne-til-stemme-systemer

Ingeniørene brukte data samlet inn fra en testperson for å lage et datasett for sin proprietære AI-algoritme. Testpersonene ble vist setninger som de forsøkte å lese høyt. Dette trinnet tillot teamet å kartlegge deres nevrale aktivitet og bruke den til å lage en lukket sløyfe for stemmesyntese.

Imponerende nok kan algoritmen registrere når en person prøver å snakke og automatisk konvertere deres nevrale aktivitet til stavelser uten noen bevegelse fra deres side. Denne konverteringen skjer sømløst, noe som gjør den veldig lik tempoet i en tradisjonell samtale.

I tillegg lar det lukkede lydfeedbacksystemet protokollen syntetisere brukerens stemme, slik at de kan høre talen sin som en ekte samtale. Systemet syntetiserer disse stemmemønstrene, noe som gir full kontroll over pasientens kadens og timing.

Hjerne-til-stemme-test

Testfasen av eksperimentet startet med å finne en passende pasient. Teamet fant en mann som lider av ALS (amyotrofisk lateralsklerose), også kalt Lou Gehrigs sykdom i USA. Denne forferdelige lidelsen fører til nervedegenerasjon rundt ryggmargen og hjernen. De som lider av ALS kan miste evnen til å snakke nøyaktig når de mister kontrollen over ansiktsmusklene.

Pasienten som ble valgt ut til studien lider av ALS og alvorlig dysartri. Etter å ha implantert sensorene og programmert AI-algoritmen, ble pasienten bedt om å lese setninger høyt. Denne teknikken gjorde det mulig for ingeniører å registrere hjerneaktiviteten hans.

Når prototypen er kalibrert, syntetiserer den umiddelbart stemmen hans, slik at han kan kommunisere i sanntid. Pasienten kunne til og med kommunisere med familien sin og endre intonasjon under samtaler for å fremheve poengene sine. Imponerende nok sang testpersonen til og med korte melodier.

Resultater av hjerne-til-stemme-testen

Testresultatene viser at hjerne-til-stemme-systemet er effektivt. Det syntetiserte pasientens stemme- og talemønstre nøyaktig med høy nøyaktighet. Systemet leverer 60 % nøyaktighet, sammenlignet med bare 4 % når maskinen ikke er i bruk.

Ingeniørene bemerket at pasienten kunne endre og modulere sin BCI-syntetiserte stemme i sanntid. De registrerte prosessen som ble fullført på 1/14 sekund, som er omtrent samme tid som en vanlig samtaleforsinkelse. De noterte også tilfeller der pasienten endret stemmen sin for å vise at de hadde stilt et spørsmål.

Interessant nok er ikke teknologien begrenset til pasientens nåværende vokabular. Teamet dokumenterte flere tilfeller der pasienten lærte nye ord, og systemet uttalte dem riktig. Disse dataene demonstrerer egenskapene til denne tilnærmingen for å håndtere taleforstyrrelser.

Fordeler med hjerne-til-stemme

Det er mange fordeler med hjerne-til-stemme-teknologien på markedet. For det første gir den en pålitelig og naturlig måte for de som lider av lammelse og andre livsendrende plager å gjenvinne en viss form for normalt dagligliv.

Protokollen kan umiddelbart levere taleresponser. Den digitale stemmeveien støtter pasientenes unike stemmelyd og kan reagere uten merkbar forsinkelse. Responsene har vist seg å være nøyaktige og kan opprettes kun ved hjelp av nevrale signaldata.

En ny æra for pasienter med kommunikasjonsforstyrrelser

En av de største fordelene med denne teknologien er at den endelig vil gjøre det mulig for de som lider av kommunikasjonsproblemer å dele historien sin på en måte man kan relatere seg til. Denne teknologien vil gjøre det mulig for brukere av nevroproteser å delta i samtalen og gjøre sin del for å hjelpe andre med lignende problemer.

Virkelige anvendelser og tidslinje for hjerne-til-stemme-teknologi

Det finnes en lang liste med bruksområder for hjerne-til-kontor-datateknologi. Datamaskiner har eksistert lenge, og til tross for at nesten alle teknologiske aspekter er oppdatert, som bedre grafikk, prosessor og maskinvare, forblir tastaturet relativt urørt.

Innføringen av et pålitelig grensesnitt mellom hjerne og datamaskin i forskningsprosesser endrer alt. Det åpner døren for sømløs interaksjon mellom mennesker og datamaskiner. Som sådan kan denne teknologien åpne døren for mer avanserte behandlinger og teknologier.

Hjerne-til-stemme-tidslinje

Forskerne har ikke satt noen tidslinje. Men gitt den alvorlige tilstanden til de som lider av disse plagene, er det mulig at denne teknologien kan komme på markedet i løpet av de neste 5–10 årene. Det vil være behov for mye mer forskning på de langsiktige effektene av implantatet før det får godkjenning fra regulatorer.

Hjerne-til-stemme-forskere

Studien av hjerne-til-stemme ble ledet av forskere ved University of California. Artikkelen nevner spesifikt Maitreyee Wairagkar, Nicholas S. Card, Tyler Singer-Clark, Xianda Hou, Carrina Iacobacci, Lee M. Miller, Leigh R. Hochberg, David M. Brandman og Sergey D. Stavisky som sentrale bidragsytere til prosjektet.

Hjerne-til-stemme-fremtiden

Ifølge ingeniørene er det fortsatt mye arbeid som må gjøres med hjerne-til-stemme-systemet. De håper å utvide testingen til å inkludere flere pasienter i de kommende månedene. De ønsker også å inkludere pasienter som lider av et bredt spekter av lidelser. De som ønsker å delta i studien kan kontakte [e-postbeskyttet] for å se om de kvalifiserer.

Investering i AI-helsesektoren

Land som bruker kunstig intelligens spiller en stadig større rolle innen helsevesen og behandlinger. Dette systemet kan hjelpe helsepersonell med å identifisere plager raskere, behandle dem mer effektivt og til og med oppdage de underliggende årsakene til traumatiske lidelser. I dag finnes det flere aktører innen AI-helsevesenet. Her er ett selskap som har klart å skape seg en nisje i markedet.

SoundHound AI, Inc.

Santa Clara, California-baserte SoundHound AI (SOUN -5.74%) har hatt en interessant reise fra lanseringen som musikkidentifikasjonsappen Midomi til å bli et av de mest anerkjente navnene innen AI-samtalegrensesnitt.

Selskapets reise startet i 2005 etter at Keyvan Mohajer begynte å jobbe med avanserte protokoller for lydgjenkjenning. I 2015 omdøpte selskapet navnet SoundHound og flyttet fokuset til sin proprietære taleplattform for kunstig intelligens.

SoundHound AI, Inc. (SOUN -5.74%)

Denne protokollen utvidet AI-talegjenkjenningsfunksjonene og ble utviklet ved hjelp av Deep Meaning Understanding-teknologier. I dag er SoundHound en ledende leverandør av AI-taleanalysesystemer som har over 250 patenter og støtter over 20 internasjonale språk.

Siste nytt og utvikling for SoundHound AI (SOUN)-aksjer

Hjerne-til-stemme-teknologi – Fremtiden er sømløs

Når man undersøker de teknologiske fordelene som Brain-to-voice-studien introduserte for markedet, er det lett å forstå hvorfor mange anser det som en viktig milepæl innen medisinsk sektor. I fremtiden kan du kontrollere roboter, kjøretøy og andre viktige aspekter av livet ditt ved hjelp av en BCI.

Denne siste studien fremhever hvordan denne teknologien kan forbedre livene til mange. Forskerne fortjener derfor stående applaus for innsatsen sin.

Lær om andre kule gjennombrudd innen helsevesenet her..


Referert til studier:

1. Wairagkar, M., Card, NS, Singer-Clark, T. et al. En øyeblikkelig stemmesyntese-nevroprotese. Natur (2025). https://doi.org/10.1038/s41586-025-09127-3

David Hamilton er journalist på heltid og mangeårig bitcoinist. Han spesialiserer seg på å skrive artikler om blokkjeden. Artiklene hans har blitt publisert i flere bitcoin-publikasjoner, inkludert Bitcoinlightning.com

Annonsørens avsløring: Securities.io er forpliktet til strenge redaksjonelle standarder for å gi våre lesere nøyaktige anmeldelser og vurderinger. Vi kan motta kompensasjon når du klikker på lenker til produkter vi har anmeldt.

ESMA: CFD-er er komplekse instrumenter og har høy risiko for å tape penger raskt på grunn av innflytelse. Mellom 74-89 % av private investorkontoer taper penger ved handel med CFD-er. Du bør vurdere om du forstår hvordan CFD-er fungerer og om du har råd til å ta den høye risikoen for å tape pengene dine.

Ansvarsfraskrivelse for investeringsråd: Informasjonen på denne nettsiden er gitt for utdanningsformål, og utgjør ikke investeringsråd.

Handelsrisiko Ansvarsfraskrivelse: Det er en svært høy grad av risiko involvert i handel med verdipapirer. Handel med alle typer finansielle produkter, inkludert forex, CFD-er, aksjer og kryptovalutaer.

Denne risikoen er høyere med kryptovalutaer på grunn av at markeder er desentraliserte og ikke-regulerte. Du bør være klar over at du kan miste en betydelig del av porteføljen din.

Securities.io er ikke en registrert megler, analytiker eller investeringsrådgiver.