Donnerstag , 5. Dezember 2019
Aktuell
Home | Nachrichten | Medien | Alexa und Co. lassen sich per Laser manipulieren
Der Sprachassistent „Alexa“ lässt sich bei Amazons Echolautsprecher durch Laserstrahlen aktivieren. Das gilt auch für Apple- und Google-Geräte, so eine neue Studie.

Alexa und Co. lassen sich per Laser manipulieren

Alexa, Siri und Co. hören nicht nur auf ihr digitales Herrchen oder Frauchen – sie lassen sich auch fremdsteuern. Mit Laserstrahlen, so fanden Wissenschaftler heraus, ließen sich aus bis zu 110 Metern Entfernung Befehle an die heimischen Helfer schicken.

Laserstrahlen, die unsicht- und unhörbare Befehle an die Sprachassistenten schicken – egal, ob an einen Smarthome-Lautsprecher oder ein Smartphone – diese unheimliche Vorstellung haben Forscher der Universität von Michigan jetzt für eine Studie umgesetzt, wie die Expertenplattform „Ars Technica“ berichtet. Mit diesen verdeckten Befehlen, so die Forscher, ließen sich etwa Websites besuchen, Türen öffnen und sogar Autos entsperren und starten. Der Laser steuert offensichtlich die Lautsprecher-Membran der Sprachassistenten oder Smartphones an und erzeugt durch eine spezifische Vibration Sprachbefehle.

Geräte aus mehr als 100 Metern manipulierbar

Das Herz der virtuellen Helfer besteht aus sogenannten mikroelektro-mechanischen Systemen. Die reagieren aber leider nicht nur auf Sprachimpulse, sondern auch auf Lichtsignale. Amazon und Google reagierten prompt. Man habe die Forscher kontaktiert. In der Studie werden sowohl Wege aufgezeigt, wie man mit relativ geringem finanziellen Einsatz (um die 500 Euro) und konventionellen Gegenständen wie einem Teleobjektiv Alexa und Gefährten aus bis zu 110 Metern Entfernung manipulieren kann.

Laserattacken in der Praxis eher unwahrscheinlich

Allerdings schildern die Wissenschaftler in „Ars Technica“ auch, wie sich die Angriffe abwehren lassen. So sollte bei iPhones und Android-Smartphones die Option, dass beim Aktivieren des Sprachassistenten die automatische Stimmerkennung eingeschaltet wird, Fremdmanipulationen verhindern. Und bei Lautsprechern mit eingebautem Sprachassistenten kann der Laser nur jeweils ein Mikrofon ansteuern. Würde man bei Amazon, Apple und Co. etwa die Software so programmieren, dass zur Spracherkennung mindestens zwei Mikrofone aktiviert werden müssen, wäre der Spuk schon beendet.

Hinzu kommt, dass der Laser eine ungestörte, gerade Verbindung zum Sprachassistenten haben muss, was in der Praxis auch eher selten der Fall sein dürfte. Und noch etwas verringert die Wahrscheinlichkeit einer unentdeckten Laserattacke gewaltig: Sprachassistenten sind geschwätzig. Auch wenn die Handlungsaufforderung lautlos erfolgen sollte, ist die Bestätigung doch laut und deutlich zu vernehmen. Wer also ganz sicher gehen möchte, sollte etwaigen „Selbstgesprächen“ seiner virtuellen Diener gut zuhören.

Von Daniel Killy/RND

Hier weiterlesen