AI kan forudsige, om dit forhold vil vare baseret på, hvordan du taler til din partner

Ethvert barn (eller ægtefælle), der er blevet skældt ud for deres stemme - som at råbe eller være sarkastisk - ved, at vej du taler til nogen kan være lige så vigtig som ord som du bruger. Stemmekunstnere og skuespillere gør stor brug af dette - de er dygtige til at give mening i den måde, de taler på, nogle gange meget mere end ordene alene fortjener.

Men hvor meget information bæres i vores stemme og samtalemønstre, og hvordan påvirker det vores forhold til andre? Beregningssystemer kan allerede oprette hvem folk er fra deres stemmer, så kunne de også fortælle os noget om vores kærlighedsliv? Utroligt ser det ud til at det.

Ny forskning, netop offentliggjort i tidsskriftet PLOS-ONE, har analyseret de vokale egenskaber hos 134 par, der gennemgår terapi. Forskere fra University of Southern California brugte computere til at udtrække standard taleanalysefunktioner fra optagelser af terapisessionens deltagere over to år. Funktionerne - inklusive banen, variation i tonehøjde og intonation - alt vedrører stemmeaspekter som tone og intensitet.

En maskinlæringsalgoritme blev derefter uddannet til at lære et forhold mellem disse vokale træk og det endelige resultat af terapi. Dette var ikke så simpelt som at opdage råbende eller hævede stemmer - det inkluderede samspillet mellem samtaler, der talte hvornår og hvor længe såvel som lyden af ​​stemmerne. Det viste sig, at det at ignorere det, der blev sagt, og kun tage disse talemønstre i betragtning, var tilstrækkeligt til at forudsige, om par ville blive sammen eller ej. Dette var rent datadrevet, så det relaterede ikke resultaterne til specifikke stemmeattributter.

Hvordan en stemmetone kan ændre betydningen af ​​et par ord.

{youtube}https://youtu.be/GVqJtvRjuns{/youtube}


indre selv abonnere grafik


Interessant blev de fulde videooptagelser fra terapisessionen derefter givet til eksperter til klassificering. I modsætning til AI gjorde de deres forudsigelser ved hjælp af psykologisk vurdering baseret på vokalattributterne (og andre) - inklusive de talte ord og kropssprog. Overraskende nok var deres forudsigelse af det endelige resultat (de var korrekte i 75.6% af tilfældene) ringere end forudsigelser fra AI kun baseret på vokalegenskaber (79.3%). Der er helt klart elementer kodet i den måde, vi taler på, som ikke engang eksperter er opmærksomme på. Men de bedste resultater kom fra at kombinere den automatiserede vurdering med eksperternes vurdering (79.6% korrekt).

Betydningen af ​​dette handler ikke så meget om at involvere AI i ægteskabsrådgivning eller få par til at tale mere pænt til hinanden (uanset hvor fortjenstfuldt det ville være). Betydningen er at afsløre, hvor meget information om vores underliggende følelser er kodet i den måde, vi taler på - noget af det helt ukendt for os.

Ord skrevet på en side eller en skærm har leksikale betydninger afledt af deres ordboksdefinitioner. Disse er ændret i sammenhæng med omgivende ord. Der kan være stor kompleksitet i skrivningen. Men når ord læses højt, er det rigtigt, at de får yderligere betydninger, der formidles af ordstress, volumen, talehastighed og stemmetone. I en typisk samtale er der også betydning i, hvor længe hver højttaler taler for, og hvor hurtigt den ene eller den anden kan komme ind.

Overvej det enkle spørgsmål "Hvem er du?". Prøv at tale dette med stress på forskellige ord; "Hvem er dig?", "Hvem er du?" og “Hvem er du?". Lyt til disse - den semantiske betydning kan ændre sig med, hvordan vi læser, selv når ordene forbliver de samme.

Computere, der læser 'lækkende sanser'?

Det er ikke overraskende, at ord formidler forskellige betydninger afhængigt af, hvordan de tales. Det er ikke overraskende, at computere kan fortolke noget af betydningen bag, hvordan vi vælger at tale (måske en dag vil de endda være i stand til at forstå ironi).

Men denne forskning tager sagen længere end bare at se på betydningen formidlet af en sætning. Det ser ud til at afsløre underliggende holdninger og tanker, der ligger bag sætningerne. Dette er et meget dybere niveau af forståelse.

Terapideltagerne læste ikke ord som skuespillere. De talte bare naturligt - eller så naturligt som de kunne på et terapeutkontor. Og alligevel afslørede analysen oplysninger om deres gensidige følelser af, at de "lækkede" utilsigtet i deres tale. Dette kan være et af de første trin i brugen af ​​computere til at bestemme, hvad vi virkelig tænker eller føler. Forestil dig et øjeblik samtale med fremtidige smartphones - vil vi "lække" oplysninger, som de kan hente? Hvordan vil de reagere?

Kunne de rådgive os om potentielle partnere ved at lytte til os tale sammen? Kunne de opdage en tilbøjelighed til antisocial adfærd, vold, depression eller andre forhold? Det ville ikke være et spring i fantasien at forestille sig enheder selv som fremtidige terapeuter - interagere med os på forskellige måder for at spore effektiviteten af ​​interventioner, som de leverer.

Bare rolig endnu, fordi vi er år væk fra en sådan fremtid, men det rejser sig spørgsmål om privatlivets fred, især når vi interagerer dybere med computere på samme tid, som de bliver mere magtfulde til at analysere verden omkring dem.

The ConversationNår vi også holder pause for at betragte de andre menneskelige sanser bortset fra lyd (tale); måske lækker vi også information gennem synet (såsom kropssprog, rødmende), berøring (temperatur og bevægelse) eller endda lugt (feromoner). Hvis smarte enheder kan lære så meget ved at lytte til, hvordan vi taler, undrer man sig hvor meget mere kunne de hente fra de andre sanser.

Om forfatteren

Ian McLoughlin, professor i computing, skoleleder (Medway), University of Kent

Denne artikel blev oprindeligt offentliggjort den The Conversation. Læs oprindelige artikel.

Relaterede Bøger:

at InnerSelf Market og Amazon