Apple erklärt: So lernt Siri eine neue Sprache

Apple bringt Siri immer mehr Sprachen und Worte bei
Apple bringt Siri immer mehr Sprachen und Worte bei(© 2017 CURVED)

Um der künstlichen Intelligenz Siri neue Sprachen beizubringen, hat Apple ein besonderes Vorgehen entwickelt, das aus mehreren Stufen besteht. Die Sprachassistenz versteht auch viele Dialekte oder Aussprachen mit Akzent – wofür ein entsprechender Aufwand nötig ist.

In einem Interview mit der Nachrichtenagentur Reuters hat Alex Acero, Apples Leiter des Speech-Teams, den Prozess genauer beschrieben. Demnach werden zunächst Personen angeheuert, die eine bestimmte Sprache sprechen, die Siri lernen soll. Diese müssen dann verschiedene Zeilen und Wörter einsprechen, auch mit unterschiedlichen Dialekten und Akzenten. Die Aufnahmen werden anschließend von Hand abgetippt. Das so entstandene Basis-Modell einer Sprache wird anschließend in den Computer eingespeist. Nun versuche das System bereits, gesprochene Wörter zu erkennen und selbst in Text umzuwandeln.

Apple nutzt anonyme Sprachdaten

Anstatt die Sprachdaten direkt für Siri zur Verfügung zu stellen, baut Apple diese im nächsten Schritt als Teil der Diktierfunktion ein, die sich unter iOS auf der Tastatur hinter dem Mikrofon-Symbol verbirgt. Sobald Nutzer dieses Sprache-zu-Text-Feature verwenden, greift das Unternehmen aus Cupertino auf ein paar der Eingaben zu und benutzt sie zur Weiterentwicklung des Systems. Dabei werden die anonymen Aufnahmen von Apple-Mitarbeitern abgetippt. Erneut wird der Algorithmus dann mit Text und Audio gespeist. Dadurch werde die Fehlerquote der Diktier-Funktion bereits halbiert.

Dieses Vorgehen wiederholt sich, bis genügend Daten gesammelt wurden. Parallel dazu nehmen Sprecher bereits Satzbausteine und Worte auf, damit die Künstliche Intelligenz die neue Sprache nicht nur versteht, sondern auch bereits in ihr reagieren kann. Anschließend kommt die neue Sprache mit einem iOS Update für Siri. Ab iOS 10.3 beherrscht die Sprachassistenz von Apple beispielsweise auch Shangheinesisch.

Aktuell sind schon über 24 Sprachen und insgesamt 36 Dialekte weltweit für Siri verfügbar. Damit hat Apple einen Vorsprung im Vergleich zur Konkurrenz: Der Goggle Assistant versteht aktuell lediglich fünf Sprachen, Alexa von Amazon ist momentan sogar nur auf Deutsch und Englisch verfügbar. Jede der genannten Sprachassistenzen arbeitet jedoch noch auf Grundlage von Satzbausteinen. Bis wir es mit einer komplett dynamischen künstlichen Intelligenz zu tun bekommen, die nicht mehr auf von Menschen vorgeschriebene Worte und Sätze angewiesen ist, dürfte es noch eine Weile dauern.


Weitere Artikel zum Thema
HomePod und Co.: So fügt ihr dem Apple-Smart-Home neue Laut­spre­cher hinzu
Christoph Lübben
Einen HomePod und weitere smarte Geräte könnt ihr leicht mit Apple HomeKit verbinden
Ein Smart Home mit Apple: HomeKit ermöglicht es euch, viele intelligente Geräte wie euren HomePod anzusteuern. Wir erklären die Einrichtung.
Apple Music: Empfeh­lun­gen könn­ten künf­tig noch besser werden
Lars Wertgen
Ein Start-up soll Apple Music verbessern
Apple will offenbar die Empfehlungen in Apple Music optimieren und ist dafür bereit, tief in die Tasche zu greifen.
So soll Apple Maps noch detail­lier­tere Infor­ma­tio­nen erhal­ten
Lars Wertgen
Apple intensiviert die Entwicklung von Apple Maps
Apple Maps soll wohl für Fußgänger nützlicher werden: Apple schickt Mitarbeiter offenbar auf Streifzug, um wichtige Kartendaten zu erfassen.

Diese Website verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Durch die weitere Nutzung der Website stimmen Sie dem zu. Um mehr über die von uns verwendeten Cookies zu erfahren und wie man sie deaktiviert, können Sie unsere Cookie-Richtlinie aufrufen.