Apple erklärt: So lernt Siri eine neue Sprache

Apple bringt Siri immer mehr Sprachen und Worte bei
Apple bringt Siri immer mehr Sprachen und Worte bei(© 2017 CURVED)

Um der künstlichen Intelligenz Siri neue Sprachen beizubringen, hat Apple ein besonderes Vorgehen entwickelt, das aus mehreren Stufen besteht. Die Sprachassistenz versteht auch viele Dialekte oder Aussprachen mit Akzent – wofür ein entsprechender Aufwand nötig ist.

In einem Interview mit der Nachrichtenagentur Reuters hat Alex Acero, Apples Leiter des Speech-Teams, den Prozess genauer beschrieben. Demnach werden zunächst Personen angeheuert, die eine bestimmte Sprache sprechen, die Siri lernen soll. Diese müssen dann verschiedene Zeilen und Wörter einsprechen, auch mit unterschiedlichen Dialekten und Akzenten. Die Aufnahmen werden anschließend von Hand abgetippt. Das so entstandene Basis-Modell einer Sprache wird anschließend in den Computer eingespeist. Nun versuche das System bereits, gesprochene Wörter zu erkennen und selbst in Text umzuwandeln.

Apple nutzt anonyme Sprachdaten

Anstatt die Sprachdaten direkt für Siri zur Verfügung zu stellen, baut Apple diese im nächsten Schritt als Teil der Diktierfunktion ein, die sich unter iOS auf der Tastatur hinter dem Mikrofon-Symbol verbirgt. Sobald Nutzer dieses Sprache-zu-Text-Feature verwenden, greift das Unternehmen aus Cupertino auf ein paar der Eingaben zu und benutzt sie zur Weiterentwicklung des Systems. Dabei werden die anonymen Aufnahmen von Apple-Mitarbeitern abgetippt. Erneut wird der Algorithmus dann mit Text und Audio gespeist. Dadurch werde die Fehlerquote der Diktier-Funktion bereits halbiert.

Dieses Vorgehen wiederholt sich, bis genügend Daten gesammelt wurden. Parallel dazu nehmen Sprecher bereits Satzbausteine und Worte auf, damit die Künstliche Intelligenz die neue Sprache nicht nur versteht, sondern auch bereits in ihr reagieren kann. Anschließend kommt die neue Sprache mit einem iOS Update für Siri. Ab iOS 10.3 beherrscht die Sprachassistenz von Apple beispielsweise auch Shangheinesisch.

Aktuell sind schon über 24 Sprachen und insgesamt 36 Dialekte weltweit für Siri verfügbar. Damit hat Apple einen Vorsprung im Vergleich zur Konkurrenz: Der Goggle Assistant versteht aktuell lediglich fünf Sprachen, Alexa von Amazon ist momentan sogar nur auf Deutsch und Englisch verfügbar. Jede der genannten Sprachassistenzen arbeitet jedoch noch auf Grundlage von Satzbausteinen. Bis wir es mit einer komplett dynamischen künstlichen Intelligenz zu tun bekommen, die nicht mehr auf von Menschen vorgeschriebene Worte und Sätze angewiesen ist, dürfte es noch eine Weile dauern.


Weitere Artikel zum Thema
iOS 14: iPhone 12 mit iPad-Multi­tas­king?
Francis Lido
Auf einem iPhone 11 Pro läuft offenbar bereits iOS 14 (Bild: iOS 13)
Beschert iOS 14 dem iPhone 12 ein Multitasking, wie wir es vom iPad kennen? Ein Video deutet zumindest die Übernahme eines Features an.
"Shot on iPhone": iPhone 11 Pro setzt Valley of Fire spek­ta­ku­lär in Szene
Claudia Krüger
Der Valley of Fire State Park in Nevada ist beeindruckend. Die Aufnahmen des iPhone 11 Pro auch.
Das iPhone 11 Pro beweist in einem atemberaubenden Video vom Valley auf Fire echte Profikamera-Qualitäten. Und zwar in 4k.
Wird iOS 14 ein biss­chen mehr wie Android?
Francis Lido
Gefällt mir8Öffnet Apple iOS mehr als bisher?
iOS 14 könnte mehr Freiheiten bieten, als iPhone-Nutzer es gewohnt sind. Wie weit wird Apple gehen?