Eine Künstliche Intelligenz soll es möglich machen – kann das iPhone demnächst wie sein Besitzer reden? Das steckt hinter der Apple-KI.
„Personal Voice“Neue Funktion beim iPhone: KI soll eigene Stimme nachahmen können
Der Markt der KI boomt und die Künstliche Intelligenz wird mehr und mehr ein Teil unseres Alltags. Jetzt möchte auch Apple seine Funktionen mit KI erweitern. Die Bedienungshilfen, die Apple bereits vor einigen Jahren einführte, um Nutzerinnen und Nutzer mit Einschränkungen beim Hören, Sehen oder bei der Motorik zu helfen, sollen erweitert werden. Das Ziel: Das iPhone soll wie sein Besitzer sprechen.
Die neuen Funktionen wie „Live Speech“, „Personal Voice“ sowie mit „Point and Speak“ sollen ab Herbst mit der neuen IOS 17 Version eingeführt werden. CEO Tim Cook erklärte die Intention hinter der KI: „Technologie zugänglich zu machen, damit alle die Möglichkeit haben, kreativ zu sein, zu kommunizieren und das machen zu können, was man liebt“.
Was genau kann die neue Apple-KI?
Das Besondere an der neuen KI: „Personal Voice“. Diese Funktion ist insbesondere für Menschen gedacht, die aufgrund von einer Krankheit, wie der Nervenkrankheit ALS, ihre Fähigkeit zu sprechen verlieren. Mit der Hilfe von KI kann ihre künstliche Stimme dann künftig per Texteingabe wie sie selbst klingen. Aber wie funktioniert das?
Zuvor müssen Sprachproben auf dem Gerät hinterlegt werden, welche die KI nutzt, um anschließend die Stimme zu imitieren. ALS-Aktivist Philip Green lobte die Initiative von Apple für diesen Fortschritt: „Wenn man Freunden und Familie sagen kann, dass man sie liebt, und zwar mit einer Stimme, die wie die eigene klingt, macht das den Unterschied aus“.
Neben den neuen Sprachtools sollen auch andere Funktionen erweitert werden. Eine weitere Besonderheit: „Point and Speak“- diese soll Verwendern mit eingeschränktem Sehvermögen per Sprache erklären, was die Kamera des Geräts sieht. Das kann nicht nur die Orientierung verbessern, sondern auch den Alltag von vielen Menschen mit Einschränkungen erleichtern.