Sprache
Jeder der ein Apple-Handy hat, hat sich sicher schon einmal darüber geärgert, wenn Siri etwas getan hat, was niemand ihr aufgetragen hat. Oder sich einfach einmischt. Amazons Alexa ist da ein bisschen weiter. Aber Spracherkennungssysteme gibt es nicht erst seit Siri und Alexa. Bereits 1997 stellten die beiden Forscher Sepp Hochreiter und Jürgen Schmidhuber von der TU München ihren LSTM (long short-term memory) Algorithmus vor, mit dem heute fast alle Spracherkennungssysteme arbeiten. Erst später konnten auch große Datenmengen zum Training des Algorithmus genutzt werden. Doch Schmidhuber gilt als KI-Pionier, er hatte den Deep-Learning-Algorithmus mitentwickelt, der heute die Spracherkennung bestimmt. Heute wissen große Unternehmen wie Apple, Amazon, IBM und Google, dass Spracherkennung eines der wichtigsten Anwendungsfelder für Künstliche Intelligenz ist.
Die Verarbeitung von Sprache wie bei Amazons Alexa bezeichnen Informatiker als NLP: Natural Language Processing. Es funktioniert wie bei der Bilderkennung über viele Informationen zu einem Begriff. Doch Sprache ist sehr viel komplexer, sie enthält hunderte Signale und Muster, die noch nicht maschinell ausgewertet werden können. Das sind Zusatzinformationen wie ein zustimmendes „Ah“ oder ein zögerliches „hm“. Es gibt zirka 70.000 solcher Sprachcharakteristiken. Um besser zu werden, benötigen die Systeme hinter Alexa und Google Assistant die ständige Interaktion mit Menschen. Wie Alexa und Ko. ihr Gegenüber künftig besser verstehen können, wird im Forschungsbereich Cognitive Systems an Universitäten weltweit erforscht.