Les lasers peuvent détourner des assistants vocaux dans certains smartphones et certaines enceintes intelligentes, selon une nouvelle étude réalisée par des chercheurs de l'Université du Michigan et de l'Université d'Electro-Communications à Tokyo. Les microphones interprètent la lumière comme des commandes vocales, les rendant vulnérables dans certaines circonstances à des attaques malveillantes.

La voix off de la vidéo semble terriblement inquiétante, mais cela peut être plus efficace qu'un effet réel. Comme beaucoup d'assistants vocaux et de haut-parleurs intelligents récents, les conditions du laboratoire ou même des expériences hors site contrôlées démontrent des vulnérabilités potentielles, mais des scénarios du monde réel peu probables.

Son léger piratage

Les lasers peuvent pirater un assistant vocal en faisant vibrer des capteurs dans les microphones de systèmes micro-électro-mécaniques (MEMS) utilisés dans Apple HomePod, Google Home, Amazon Echo, Apple iPhone, etc. Un pointeur laser de faible puissance, modulé par un pilote laser et un amplificateur audio, éclaire le microphone et, même à des centaines de mètres, le microphone l'interprète comme le son d'une commande. L'absence de code confidentiel nécessaire à l'authentification de la plupart des commandes évite de contourner toute sécurité supplémentaire. L'ensemble de l'appareil coûte moins de 400 $. Tout ce dont il a besoin est une vue directe d'un haut-parleur intelligent près d'une fenêtre, comme le montre la vidéo ci-dessus. Les chercheurs ont exploré un éventail de commandes potentielles que l'attaque au laser pourrait inciter l'assistant vocal à exécuter.

«(L’authentification de l’utilisateur sur ces appareils est souvent inexistante ou inexistante, ce qui permet à l’attaquant d’utiliser des commandes vocales à injection de lumière pour déverrouiller les portes avant protégées par Smartlock de la cible, ouvrir des portes de garage, effectuer des achats sur des sites de commerce électronique aux frais de la cible, ou même localiser, déverrouiller et démarrer divers véhicules (Tesla et Ford, par exemple) connectés au compte Google de la cible », ont écrit les chercheurs dans leur rapport.

Comment réagissent les fournisseurs d'assistants vocaux

Un porte-parole d'Amazon a répondu à une enquête de Voicebot sur cette étude en déclarant: «La confiance du client est notre priorité absolue et nous prenons la sécurité de la clientèle et la sécurité de nos produits au sérieux. Nous examinons cette recherche et continuons à dialoguer avec les auteurs pour en savoir plus sur leur travail. ”

Google a proposé une réponse similaire par l'intermédiaire d'un porte-parole, qui a partagé par courrier électronique: «Nous examinons de près ce document de recherche. La protection de nos utilisateurs est primordiale, et nous cherchons toujours des moyens d’améliorer la sécurité de notre appareil. "

Ce n’est pas clair qu’ils doivent faire beaucoup. Il existe aujourd'hui des paramètres permettant aux consommateurs de se protéger contre ce type de vulnérabilité. S'ils disposent d'un verrou intelligent, ils peuvent généralement configurer un code PIN vocal qui ajouterait une couche d'authentification à la fonctionnalité. Bien que les chercheurs indiquent que l’authentification est «souvent absente», on peut plutôt dire qu’elle n’est pas «souvent activée». De plus, si un consommateur débranche son appareil ou appuie même sur le bouton de mise en sourdine d’un Amazon Echo ou de Google Home, les microphones ne le sont pas. actif et ne serait pas activé par l'attaque.

Il existe même un paramètre pour Alexa qui permet à une sonnerie de jouer à chaque fois qu'une session est ouverte ou fermée. Ce serait une indication audible que quelque chose n'allait pas pour un propriétaire ou un habitant du bureau.

Cependant, une recommandation dans la recherche aurait du sens. Les chercheurs ont constaté que l'attaque laser n'active qu'un seul microphone. C'est un comportement atypique pour les haut-parleurs intelligents, où le son atteint généralement plusieurs microphones avant que l'on n'assume la responsabilité d'interpréter le discours. Les algorithmes de mot de réveil peuvent être programmés pour vérifier l'activation de plusieurs microphones et ignorer les commandes uniquement entendues par un seul microphone ou nécessiter une confirmation verbale de la présence de l'utilisateur.

La vulnérabilité ne signifie pas le danger

Les chercheurs ont tenté de tester cette vulnérabilité potentielle au moins de manière semi-réaliste. Ils ont comparé l'utilisation de la lumière laser visible avec une version infrarouge, déterminé la précision de la ligne de visée pour que le microphone puisse interpréter correctement la commande et ont analysé la réactivité des différents modèles à ce type d'attaque.

Mais si la capacité d’une attaque malveillante est très réelle, elle est également très éloignée. La ligne de visée directe avec l'appareil et avec une petite partie du microphone est assez délicate pour être rangée dans des conditions contrôlées, et encore moins à l'état sauvage. Même si une personne disposant du bon équipement trouve le point de vue idéal pour exécuter les commandes laser, les utilisateurs remarqueront lorsque leur assistant vocal commencera à accuser réception des ordres qu'ils n'auraient pas donnés.

Un cambrioleur devrait organiser une combinaison parfaite de paramètres régionaux et de timing pour qu'un assistant vocal déverrouille une porte lorsque le propriétaire n’est pas à la maison. De plus, l'enceinte intelligente devrait être visible, sans obstruction par une fenêtre. De plus, l'enceinte intelligente devrait être connectée à quelque chose d'utile, comme un verrou de porte, sans code PIN requis pour permettre l'acte malveillant.

La recherche est passionnante, cependant. Bien qu'il existe des preuves empiriques que la lumière laser peut imiter les vibrations d'une voix suffisamment pour tromper l'assistant vocal, la physique qui la sous-tend est toujours floue. Il existe des pistes de recherche pure, ainsi que des études sur la cybersécurité. Plus important encore, maintenant que ce genre de vulnérabilité a été exposé, les chercheurs travaillent avec les sociétés à l'origine des dispositifs pour travailler sur les contre-mesures. Les attaques utilisant la lumière deviendront de plus en plus réalisables à mesure que la technologie devient plus sophistiquée, il est donc logique de développer des défenses maintenant. Même avec la possibilité très reculée que des pirates informatiques utilisent cette technique pour détourner des haut-parleurs intelligents, les entreprises ne veulent pas faire face au type de retour en arrière auquel Google a récemment été confronté lorsqu'un rapport sur une vulnérabilité de Google Assistant a entraîné une panne généralisée de Google Actions.

SR Labs présente des attaques par hameçonnage et écoute frauduleuse sur Amazon Echo et Google Home, mène à la révision de l'action Google et à une panne généralisée – Mise à jour

Comment les haut-parleurs peuvent détourner des assistants vocaux avec des commandes audio déguisées

Vijay Balasubramaniyan, PDG de Pindrop Security – Voicebot Podcast Ep 86

Comment la friction et les risques amènent la technologie vocale à la finance






Source

voicebot.ai