Alexa und Co. lassen sich per Laser manipulieren
:format(webp)/cloudfront-eu-central-1.images.arcpublishing.com/madsack/S3G5KXHG7N3UVU36LWQ5V3XWL4.jpg)
Der Sprachassistent „Alexa“ lässt sich bei Amazons Echolautsprecher durch Laserstrahlen aktivieren. Das gilt auch für Apple- und Google-Geräte, so eine neue Studie.
© Quelle: Britta Pedersen/zb/dpa
Laserstrahlen, die unsicht- und unhörbare Befehle an die Sprachassistenten schicken – egal, ob an einen Smarthome-Lautsprecher oder ein Smartphone – diese unheimliche Vorstellung haben Forscher der Universität von Michigan jetzt für eine Studie umgesetzt, wie die Expertenplattform "Ars Technica" berichtet. Mit diesen verdeckten Befehlen, so die Forscher, ließen sich etwa Websites besuchen, Türen öffnen und sogar Autos entsperren und starten. Der Laser steuert offensichtlich die Lautsprecher-Membran der Sprachassistenten oder Smartphones an und erzeugt durch eine spezifische Vibration Sprachbefehle.
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.
Geräte aus mehr als 100 Metern manipulierbar
Das Herz der virtuellen Helfer besteht aus sogenannten mikroelektro-mechanischen Systemen. Die reagieren aber leider nicht nur auf Sprachimpulse, sondern auch auf Lichtsignale. Amazon und Google reagierten prompt. Man habe die Forscher kontaktiert. In der Studie werden sowohl Wege aufgezeigt, wie man mit relativ geringem finanziellen Einsatz (um die 500 Euro) und konventionellen Gegenständen wie einem Teleobjektiv Alexa und Gefährten aus bis zu 110 Metern Entfernung manipulieren kann.
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.
Laserattacken in der Praxis eher unwahrscheinlich
Allerdings schildern die Wissenschaftler in "Ars Technica" auch, wie sich die Angriffe abwehren lassen. So sollte bei iPhones und Android-Smartphones die Option, dass beim Aktivieren des Sprachassistenten die automatische Stimmerkennung eingeschaltet wird, Fremdmanipulationen verhindern. Und bei Lautsprechern mit eingebautem Sprachassistenten kann der Laser nur jeweils ein Mikrofon ansteuern. Würde man bei Amazon, Apple und Co. etwa die Software so programmieren, dass zur Spracherkennung mindestens zwei Mikrofone aktiviert werden müssen, wäre der Spuk schon beendet.
Hinzu kommt, dass der Laser eine ungestörte, gerade Verbindung zum Sprachassistenten haben muss, was in der Praxis auch eher selten der Fall sein dürfte. Und noch etwas verringert die Wahrscheinlichkeit einer unentdeckten Laserattacke gewaltig: Sprachassistenten sind geschwätzig. Auch wenn die Handlungsaufforderung lautlos erfolgen sollte, ist die Bestätigung doch laut und deutlich zu vernehmen. Wer also ganz sicher gehen möchte, sollte etwaigen "Selbstgesprächen" seiner virtuellen Diener gut zuhören.
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.