[Back]


Diploma and Master Theses (authored and supervised):

A. Ponticello:
"Towards Secure and Usable Authentication for Voice-Controlled Smart Home Assistants";
Supervisor: T. Grechenig, K. Krombholz; 194-03, 2020; final examination: 2020-11-18.



English abstract:
Smart home assistants such as Amazon Alexa and Google Home are currently usually used for non-confidential or non-security-sensitive activities such as checking the weather report or for controlling linked devices.
In selected markets, security-critical applications such as online banking and voicecontrolled door locks are already available and will become more widespread in the future as their popularity increases. Basic security functions are required to strengthen users´ confidence.
At the moment, state-of-the-art authentication for smart home assistants consists of insecure voice codes that users have to utter out loud, as well as biometric authentication using voice recognition. A number of attacks have been demonstrated for these authentication methods in the past. Previous work also indicates that the adoption of new, security-critical functions could be hindered by a lack of user confidence in the system.
We are, therefore, examining the design space for future authentication mechanisms. These have the potential to achieve stronger security properties due to increased usability and give users a stronger feeling of security during the execution of applications.
We carry out semi-structured interviews with Amazon Alexa users, in which four security critical scenarios are dealt with. In each scenario, we ask the participants about their perception of threats, mitigation strategies, and design aspects essential for their perception of security.
Our findings, which we have gained from a thematic analysis of the data, show amongst others that users (1) are primarily concerned about bystanders, (2) have little trust in spoken codes and would instead prefer trustworthy voice recognition, and (3) have context-dependent requirements for authentication systems, especially depending on the location and presence of other people. The design recommendations we provide can form the basis for highly developed future authentication mechanisms.

German abstract:
Smart-Home-Assistenten wie Amazon Alexa und Google Home werden derzeit üblicherweise für nicht-vertrauliche oder nicht-sicherheitsrelevante Tätigkeiten wie Wetterberichtabfragen oder die Steuerung verknüpfter Geräte verwendet.
In ausgewählten Märkten sind jedoch bereits sicherheitskritische Anwendungsfälle wie Online-Banking und sprachgesteuerte Türschlösser verfügbar, welche mit zunehmender Beliebtheit in Zukunft weitere Verbreitung finden werden. Dabei sind grundlegende Sicherheitsfunktionen erforderlich, um das Vertrauen der AnwenderInnen zu stärken.
Derzeit besteht der Stand der Technik der Authentifizierung für Smart-Home-Assistenten aus unsicheren Sprachcodes, welche von BenutzerInnen laut ausgesprochen werden müssen, sowie biometrischer Authentifizierung mittels Stimmerkennung. Für diese Authentifizierungsmethoden wurde in der Vergangenheit eine Reihe von Angriffen demonstriert. Frühere Arbeiten legen es außerdem nahe, dass die Übernahme neuer, sicherheitskritischer Funktionen von fehlendem Vertrauen der BenutzerInnen in das System behindert werden könnte. Deshalb untersuchen wir den Design-Space für zukünftige Authentifizierungsmechanismen. Diese haben das Potenzial stärkere Sicherheitseigenschaften aufgrund gesteigerter Benutzerfreundlichkeit zu erzielen, sowie den BenutzerInnen ein gestärktes Sicherheitsgefühl während der Ausführung von Anwendungen geben zu können.
Wir führen semi-strukturierte Interviews mit BenutzerInnen von Amazon Alexa durch, in welchen vier sicherheitskritische Szenarien behandelt werden. In jedem Szenario befragen wir die TeilnehmerInnen nach ihrer Wahrnehmung bezüglich Bedrohungen, Schutzmaßnahmen sowie für ihr Sicherheitsempfinden wesentliche Designaspekte.
Unsere Erkenntnisse, welche wir aus einer thematischen Analyse der Daten gewonnen haben, zeigen u. a., dass BenutzerInnen (1) primär besorgt sind über umstehende Zuhörer, (2) wenig Vertrauen in ausgesprochene Codes haben und stattdessen vertrauenswürdige Stimmerkennung bevorzugen würden, und (3) kontextabhängige Anforderungen an Authentifizierungssysteme haben, speziell in Abhängigkeit von Ort und Anwesenheit anderer Personen. Die von uns bereitgestellten Designempfehlungen können die Basis für hochentwickelte zukünftige Authentifizierungsmechanismen bilden.

Created from the Publication Database of the Vienna University of Technology.