Ihmisaivot seuraavat puhetta ajallisesti tarkemmin kuin muita ääniä
Kuuleminen aktivoi pääosin samoja aivoalueita riippumatta siitä, mitä kuullut äänet ovat. Siksi tutkijoiden on ollut haastavaa selvittää puheen prosessointiin liittyviä erityispiirteitä.
Aivojen puhealueita on pyritty paikallistamaan ja niiden roolia selvittämään useissa tutkimuksissa. Yksi suurimmista haasteista on selvittää, miten aivot yhdistävät hyvin vaihtelevatkin akustiset signaalit tiettyyn kielelliseen merkitykseen ja pystyvät näin esimerkiksi tunnistamaan sanan samaksi, vaikka puhujat lausuisivat sen hieman eri tavoilla.
Aalto-yliopiston professori Riitta Salmelinin johtama tutkijaryhmä lähti ratkomaan haastetta uudella menetelmällä, jossa hyödynnettiin magnetoenkefalografia (MEG) -aivokuvantamismenetelmää ja fysiologiaan perustuvia koneoppimismalleja.
Tutkijat mittasivat kuudentoista suomenkielisen koehenkilön aivoaktivaatiota äänille millisekuntien tarkkuudella samalla, kun nämä kuuntelivat eri ihmisten lausumia sanoja ja monenlaisia ympäristön ääniä eläinten ääntelystä musiikkiin. Sen jälkeen tutkijat muodostivat äänten käsittelystä koneoppimismenetelmien avulla mallin, jonka avulla he pystyivät rekonstruoimaan äänet pelkän aivoaktivaation perusteella eli kertomaan suurella tarkkuudella, minkä äänen koehenkilö oli kuullut.
Tutkimus osoitti, että puheen seuraaminen vaatii aivoilta aivan erilaista tarkkuutta kuin muiden äänien tulkinta.
"Aivokuori seuraa äänen piirteitä hyvin täsmällisesti ymmärtääkseen puhetta. Kun kuulemme esimerkiksi sanan ”kissa”, aivojemme on seurattava sitä ajallisesti hyvin tarkasti ymmärtääksemme sen merkityksen”, Aalto-yliopiston tutkija Anni Nora sanoo.
Aikaan sidottua prosessointia havaittiin aivoissa myös suomen kieleltä kuulostavien keksittyjen sanojen yhteydessä. Sen sijaan esimerkiksi musiikin, naurun ja eläinten äänten kohdalla ajallinen tarkkuus ei korostunut, vaikka ne välittivät merkityksiä puhuttujen sanojen tavoin.
”Kun kuulemme kissan naukuvan, aivot käsittelevät samoja merkityksiä kuin kissa-sanan kuullessamme – miltä kissa näyttää, mitä se tekee, miltä se tuntuu – mutta naukumista itsessään ne analysoivat kokonaisuutena ilman tarvetta ajallisesti täsmälliseen prosessointiin”, Anni Nora kertoo.
Kokemus voi kehittää ajallista tarkkuutta
Ajallisesti tarkkoja äänten käsittelyn malleja on käytetty aikaisemminkin aivotutkimuksessa, Tutkija Ali Faisalin kehittämän, skaalautuvan menetelmän ansiosta tutkijat pystyivät nyt soveltamaan malleja koko aivojen alueelta kerättyyn mittausdataan ja vertaamaan näiden koneoppimismallien avulla ensimmäistä kertaa puheen ja muiden äänten käsittelyä.
Aiempien tutkimusten valossa puheen käsittelytapa saattaa kehittyä ensimmäisten elinvuosien aikana, kun lapsi altistuu vahvasti omalle äidinkielelleen.
Tutkijat aikovat seuraavaksi hyödyntää luonnollisia ääniympäristöjä, kuten osana ympäristön ääniä kuuluvaa puhetta, sekä analysoida puheakustiikan vaikutuksia äänten käsittelyyn. He toivovat selvittävänsä myös, synnyttääkö tiettyihin ääniin erikoistuminen samanlaista aikaan sidottua prosessointia kuin puheen kohdalla havaittiin.
”Tätä voitaisiin tutkia esimerkiksi soitinäänten käsittelyyn erikoistuneilla muusikoilla”, Anni Nora kertoo.
Tutkijat uskovat, että koneoppimismalleja voidaan hyödyntää esimerkiksi puheen käsittelyn häiriöiden tutkimisessa.
Lue Lisää:
Dynamic time-locking mechanism in the cortical representation of spoken words http://dx.doi.org/10.1523/ENEURO.0475-19.2020
Lisätietoja:
Tutkija Anni Nora, Aalto-yliopisto
[email protected]
Professori Riitta Salmelin, Aalto-yliopisto
puh. 050 344 2745
[email protected]