Wie sicher sind Sprachassistenten wie Siri, Alexa und Co? 

„Alexa, spiel ‚Summer in the City‘!“ Tippen und Klicken war gestern. Jetzt spielen Alexa, Siri und Co Musik, antworten auf Zuruf, … Was auf den ersten Blick witzig ist, birgt Gefahren. 

Alexa, Siri und Co lauschen mit

„Digitale Assistenten“ – eine neue Studie der AK mit dem Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW) zeigt die Tücken auf. „Apples Siri, Amazons Alexa, Googles Assistant und Cortana von Microsoft sind oft auf dem Handy mit dabei oder lauschen in den Wohnungen mit. Die Anbieter sammeln Sprachprofile, geben beispielsweise Standortdaten weiter, die Zwecke jenseits der Diensterfüllung bleiben dank vager Datenschutzerklärungen meist im Verborgenen – das ist vielen nicht bewusst, vor allem Kindern nicht“, warnt AK Konsumentenschützerin Daniela Zimmer.

„Sprachbutler sind auch anfällig für Fehlaktivierungen, ohne Aktivierungswort mitgelauschte, vertraulichste Gespräche innerhalb der eigenen vier Wände landen immer wieder bei den Anbietern, Waren werden auf Zuruf von Nichtberechtigten bestellt. Deutsche Innenminister wünschen sich sogar, dass sie künftig vor Strafgerichten ‚aussagen‘. Die Überwachungs- und Missbrauchsrisiken sind also vielfältig. Experten meinen, dass weibliche Geräte-Namen und drollige Antworten auch dazu dienen, den Wanzen-Charakter zu kaschieren.“

Co-Studienautor Jaro Krieger-Lamina vom Institut für Technikfolgen-Abschätzung (ITA) der ÖAW betont: „Derzeit wird die Qualität und Objektivität der Antworten nicht kontrolliert. Fraglich ist, ob die Assistenten unter Umständen mehr ihren Herren als den Nutzern dienen? Die Antwortauswahl und Reaktionen könnten davon abhängen, dass die Hersteller nur mit bestimmten Lieferanten kooperieren, welche Politik der Anbieter unterstützt, oder ob Dritte dafür gezahlt haben.“

„Wir möchten das Bewusstsein schärfen, dass die digitalen Sprachassistenten nicht harmlos sind“, sagt Gabriele Zgubic, Leiterin der AK Wien Konsumentenpolitik. „Die Anbieter müssen sorgfältiger mit den Daten der Konsumenten umgehen und mehr Augenmerk auf den Datenschutz legen. Konsumenten müssen klare Informationen haben, wie ihre Daten genutzt und verarbeitet werden.“

Komfortabel, aber gefährlich?

Sie heißen Alexa, Siri und Cortana, nur Google tanzt mit der schlichten Bezeichnung Google Assistant etwas aus der Reihe. „Einmal in der Wohnung aufgestellt und eingerichtet, befinden sich smarte Lautsprecher in permanenter Lauschbereitschaft“, sagt Jaro Krieger-Lamina vom Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW).

„Durch irrtümliche Aktivierung können auch privateste Gespräche als ‚Beifang‘ beim Anbieter landen. Die Gerätehersteller leben zudem von der Nutzung der erstellten Personenprofile!“

Die unheimlichen MitbewohnerInnen

27 Prozent der österreichischen Haushalte erteilen smarten Geräten bereits Befehle (Integral 3.Quartal 2017). Nach Angaben des deutschen Bundesverbands Digitale Wirtschaft sollen dabei Männer die smarten Butler öfter nutzen als Frauen (62 zu 52 Prozent).

Frauen finden es komischer, mit Geräten zu sprechen als Männer (34 zu 24 Prozent) und befürchten häufiger, dass das Gerät sie falsch versteht (31 zu 26 Prozent). Männer befürchten dafür öfter, dass ihre Daten missbraucht werden und dass man sie abhören könnte (36 zu 30 Prozent). Unter den 16- bis 24-Jährigen in Deutschland sollen bereits drei von vier Sprachbefehle erteilt haben.

 „Der Wettbewerb um den Zugang zu Kunden wird härter“, erklärt Krieger-Lamina. „Der Onlinehandel analysiert Klicks – Sprachassistenten und ihre Drittentwickler Tonaufzeichnungen: Gespräche nach Inhalten, Absichten und Sprachmustern.“

Skeptische Konsumenten

Die häufigsten Bedenken der Nicht-NutzerInnen sind laut der deutschen statista: Ich habe Sicherheitsbedenken, ungewollt belauscht zu werden (43 Prozent). Die sammeln zu viele Daten von mir (40 Prozent). Ich suche mir Infos lieber selbst heraus, damit ich die Qualität besser einschätzen kann (35 Prozent). Ich möchte nicht, dass meine Stimme aufgezeichnet wird (22 Prozent). 

Studie: Wie steht's um den Datenschutz?

„Sprachassistenten sind bei vielen auf dem Handy immer mit dabei oder lauschen in den Wohnungen mit. Neben dem Inhalt der Sprachaufnahmen können auch Ort und Zeit der Nutzung viel über Lebensgewohnheiten aussagen“, sagt AK Datenschützerin Daniela Zimmer.

Die Anbieter müssen die Verarbeitung von Daten transparent, unter Angabe einer genauen Speicherdauer und an klare Zwecke gebunden durchführen. „Ihre Datenschutzerklärungen sind allerdings viel zu vage formuliert“, so Zimmer. „Dabei fallen äußerst heikle Daten an. Nicht nur an den ‚Beifang‘ unautorisiert aufgezeichneter privater Gespräche ist dabei zu denken. Der britische Gesundheitsdienst setzt Alexa künftig sogar als ‚Doktor‘ ein: Alexa soll medizinische Beratung, quasi als Hausbesuchersatz, anbieten, womit Berge an sensiblen Daten anfallen“.

Manche Geräte enthalten auch Bewegungssensoren, die die Anwesenheit von Personen ohne Sprachanfrage erfassen (wie viele Personen leben in einem Haushalt, wie oft bekommen sie Besuch). Mit dem Okay des Nutzers werden Kontakte und Kalender gespeichert. Bei aktiviertem Suchverlauf werden alle Anfragen gespeichert, bei deaktiviertem kann der Sprachbutler nicht oder nur eingeschränkt genutzt werden. Regelmäßig wird es auch zur Übermittlung von Daten in Staaten außerhalb der Europäischen Union kommen.

Tipps für KonsumentInnen

  • Genau abwägen: Überlegen Sie sich, ob Sie tatsächlich einen digitalen Assistenten benötigen. Erleichtern Musik, Einkaufslisten und Wetterbericht auf Zuruf tatsächlich den Alltag, oder sind sie eher Spielerei? Möchten Sie Einschränkungen Ihrer Privatsphäre in Kauf nehmen?

  • Auf Datenschutz achten: Überwiegen für Sie die Vorteile, sollte der Umgang des Anbieters mit ihren Daten das Auswahlkriterium sein. Nutzen Sie nach dem Kauf die Einstellungen für mehr Privatsphäre. Verwenden Sie die angebotenen Löschroutinen. 

  • Und es bleiben doch Spuren: Bei Siri werden die Sprachanfragen ohne unmittelbaren Personenbezug verwendet. Wer mit pseudonymer Speicherung nicht einverstanden ist, dem bleibt nur, Siri nicht zu nutzen. Bei Google Assistant kann zwar die Speicherung der Sprachanfragen und des Suchverlaufs deaktiviert werden. Die Aktivierung wird nahegelegt – viele Funktionen sind durch die Deaktivierung eingeschränkt. Bei Alexa kann die Speicherung von Sprachanfragen generell nicht unterbunden werden. Es ist allerdings möglich, alte Anfragen anzuhören und zu löschen. 

Tipp

Die Studie in voller Länge finden Sie hier.

fälle aus der praxis

Beratungsgespräch

Broschüren

Infos & Tipps zum Nachlesen

  • © 2024 AK Salzburg | Markus-Sittikus-Straße 10, 5020 Salzburg, +43 (0)662 86 87

  • Datenschutz
  • Impressum