Technika

Jobban olvas szájról a mesterséges intelligencia, mint egy profi

A szájról olvasás pontossága elképesztően eltérő, de egy dolog biztos, nem vagyunk képesek csak ezzel a módszerrel jól interpretálni a beszédet. Az Oxford Egyetem informatikusai korábban kiadtak egy tanulmányt, miszerint a hallássérültek átlagos, szájról olvasási pontossága 52,3 százalék. A Georgia Tech kutatói pedig azt találták, hogy a beszédnek csupán 30 százaléka látható az ajkakon.

Akárhogy is legyen, egy olyan szoftver, ami automatikusan elvégzi a feladatot, és képes javítani a pontosságon, már így is hatalmas segítség lehet a hallássérültek számára. Az Oxford Egyetem nem véletlenül állt össze a 2014-ben a Google által megvásárolt DeepMind, mesterséges intelligenciával foglalkozó vállalattal, azt remélik hogy együtt egy olyan rendszert tudnak fejleszteni, ami sokkal jobb eredményeket hoz majd.

lip1

A WAS képes tanulni. A kutatók több, mint 5.000 órányi BBC felvételt mutattak a WAS-nak, ez közel 118.000 mondatot, vagyis 17.500 szót tartalmazott, amit több, mint 1.000 különböző ember mondott be. Ezek után élesben tesztelték a WAS-t. A teszt abból állt, hogy mutattak neki és egy profi szájról olvasónak egy videót, amiben csak a látottakra hagyatkozhattak. A szakember a szavak 12 százalékát olvasta le helyesen, míg a WAS az 50 százalékát. Persze voltak hibák, de a fejlesztők szerint ezek apró hibák, ráadásul idővel akár javíthatóak is.

lip3

Ugyan még sok munka van hátra, mielőtt a szoftvert élesben is lehetne alkalmazni, de a kutatók azt mondták a BBC-nek, hogy hamarosan már élőben is működhet majd, addig pedig továbbra is TV felvételekkel tanítják. “A szájról olvasó mesterséges intelligencia segítségével sokkal jobb eredményeket érhetünk el beszédet szövéggé alakító automatikus rendszereknél, főleg zajos környezetben.” – mondta Jesal Vishnuram, technológiai kutató menedzser.