torsdag 21 maj 2020

De flesta på jorden förstår inte varandra. Kan datorer fixa det?


”De flesta på jorden förstår inte varandra. I 60 år har tekniker försökt lösa språkförbistringen med datorer. Problemet är att det inte går.” Så inleds en artikel med titeln ”Varför blir Google Translate inte bättre?” införd (2015) i online-tidskriften Di Digital som är en del av Dagens industri. Längre ner konstateras att översättandet av en roman är ”mer komplicerat för en dator än att styra ett kärnkraftverk”.

Sedan ett antal decennier tillbaka finns, som de flesta inser, mängder av digitalt lagrade texter. I en översättningsmodell (den Google Translate bygger på) lät man ”en algoritm få tillgång till extremt mycket skriven text på två språk”. Detta utgjorde i sin tur underlag ”för att göra bra gissningar” av, och översättningen ”sker mening för mening och ju mer text det finns att tillgå desto bättre blir gissningarna”.

”Algoritmen”, skriver artikelförfattaren Viktor Ström, ”väljer den översättning som har högst sannolikhet att vara rätt. Ändå blir det inte sällan fel”. Anna Sågvall Hein, professor emerita i datorlingvistik vid Uppsala universitet, säger (jag påminner om att texten skrevs 2015) att Google Translate använts så mycket att webben blivit full av dåliga maskinöversättningar och ”de översättningarna förs sedan in i systemet igen och programmet lär sig då från felaktiga texter. Felen blir självförstärkande”. Hon anser också att det finns en ”gräns för hur långt ett statistiskt verktyg kan komma”.

Artikeln slutar i moll: ”Någon lösning för perfekt översättning syns ännu inte vid horisonten”. Men det var alltså fem år sedan ovanstående skrevs, och nu är uppgiften för sbråkmakaren att ta reda på hur det går i dag för maskinöversättarbranschen.