Albert Einstein portait-il des chaussettes? Comment empêchez-vous les larmes lorsque vous coupez un oignon? Burt Reynolds a-t-il épousé Sally Field? Qu'est-ce qui rend le wasabi vert? La personne moyenne pourrait ne pas connaître la réponse à ces questions, mais Amazon Alexa, via le nouveau portail Alexa Answers annoncé jeudi, pourrait le faire. Eh bien, plus précisément, un utilisateur Alexa pourrait.

Une communauté en ligne où toute personne qui se connecte peut suggérer des réponses aux questions posées par les utilisateurs à Alexa A.I. Alexa Answers est conçu pour répondre aux questions difficiles auxquelles l’assistant à commande vocale ne peut déjà répondre. Une fois les réponses envoyées, leur exactitude est validée, elles sont notées et, si elles sont assez bonnes, elles sont renvoyées aux utilisateurs d'Alexa.

Mais est-ce que l'intelligence de crowdsourcing Alexa est une bonne idée? D'un chatbot Microsoft subverti par des trolls racistes à Yahoo Answers, un service similaire à Alexa Answers qui est devenu notoirement en proie à de mauvaises informations, les dernières années ont été jonchées de cas de systèmes de données générés par l'utilisateur qui ont mal tourné. Il n’est donc pas difficile d’imaginer le pire des scénarios: un haut-parleur intelligent soutenu par Alexa jaillissant allègrement de fausses nouvelles, de dangereuses théories du complot ou des arguments de la suprématie blanche.

Décrivant Alexa Réponses à Entreprise rapideBill Barton, vice-président d’Amazon Information chez Amazon, a affiché un ton optimiste. "Nous nous appuyons sur l'énergie positive et la bonne foi des contributeurs, a-t-il déclaré. Et nous utilisons l'apprentissage par la machine et des algorithmes pour éliminer les rares, les bruyants et les méchants."

Les experts sur l'utilisation des données et leurs impacts sont nettement moins gais.

«Nous avons de nombreux exemples de ce qui ne va pas bien se passer», explique Chris Gillard, qui étudie les politiques de données d'Amazon et d'autres sociétés de technologie du Macomb Community College, près de Détroit. Les données de crowdsourcing, puis l'utilisation de ces données dans l'apprentissage de l'algorithme Alexa, ajoute-t-il, présentent «des pièges dans lesquels Amazon semble vouloir entrer directement.»

La course pour battre Google

Même si de meilleurs assistants et des haut-parleurs intelligents génèrent des ventes d'accessoires tels que des éclairages à commande vocale, les décennies de Google dans le secteur de la recherche semblent lui avoir conféré un avantage sur Amazon pour la compréhension des requêtes et la restitution des données. L'enceinte intelligente de Google a régulièrement gagné des parts de marché par rapport à Echo et Google Assistant a surperformé presque uniformément Alexa lors des tests de comparaison.

En fait, presque toutes les questions ci-dessus, des chaussettes d'Einstein à la couleur de wasabi, sont traitées avec Google Assistant, bien qu'elles aient été prises directement sur le site Web d'Amazon Answers. Les réponses de Google proviennent des résultats de son moteur de recherche, de ses extraits et de son graphique de connaissances. Amazon essaie d'utiliser des réponses fournies par la foule pour rattraper son retard dans cet espace.

"Amazon n’est pas Google", déclare le Dr Nicholas Agar, éthicien en technologies de l’université à l’Université Victoria de Wellington, en Nouvelle-Zélande. "Ils n’ont pas le pouvoir (de données) de Google, ils ont donc besoin de nous."

Au-delà des réponses manquantes à des questions individuelles, les données d’Alexa Answers seront utilisées pour mieux former les systèmes d’intelligence artificielle situés derrière l’assistant vocal. «Alexa Answers n’est pas seulement un autre moyen d’élargir les connaissances d’Alexa», a déclaré un porte-parole d'Amazon. Fortune, «Mais aussi… la rend plus utile et informative pour les autres clients». Dans sa première annonce d’Alexa Answers, Amazon a qualifié ce processus d’Alexa «de plus en plus intelligente».

De l'argent pour rien, des faits gratuits

Aussi importantes que puissent être les Réponses Alexa pour Amazon, les contributeurs ne recevront aucune compensation financière pour leur aide. Le système aura des rédacteurs humains qui sont probablement payés pour leur travail, mais les réponses apportées ne seront récompensées que par un système de points et de rangs, une pratique connue dans le langage de l’industrie comme «la ludification».

Agar pense que cela sera efficace, car Amazon exploite l’utilité naturelle des gens. Mais il pense aussi qu'une société utilisant ces instincts devrait nous donner une pause. "Il y a une différence entre l'enquête informelle d'un être humain et Amazon qui s'appuie sur ces réponses", a-t-il déclaré. "Je pense que c'est un drapeau rouge éthique."

Gillard pense également qu'Amazon devrait payer les gens pour fournir des réponses, que ce soit l'un de ses propres travailleurs ou son partenaire avec un groupe de vérification des faits établi.

Amazon a certainement l'infrastructure pour le faire. Le géant du commerce en ligne exploite déjà Mechanical Turk, une plate-forme de «concert» qui rémunère les «Turkers» pour l’exécution de petites tâches répétitives, et qui semblerait bien adaptée pour compléter la formation d’Alexa.

Mais Gillard pense que le fait de s’appuyer sur un modèle de «communauté» isole Amazon si Alexa commence à lancer des réponses mauvaises ou offensantes, en se basant sur les commentaires de la foule. "Je pense que ne pas payer les gens vous laisse dire, eh bien, c'était en quelque sorte la sagesse de la foule", dit-il. "Si vous payez des gens, vous allez être accusé de partialité."

Un système d'incitation ludique, cependant, n'est pas sans risque. En 2013, Yahoo Answers a désactivé une partie de son système de vote utilisateur. C'est prétendument parce que certains participants ont créé de faux comptes pour faire passer leurs propres réponses (pas nécessairement exactes). (Source: Quora. C’est aussi un bon exemple de la manière dont les informations issues de l’approvisionnement collectif ont un impact sur la fiabilité.)

Bouchons de troll

La plus grande question à laquelle est confrontée Alexa Answers est de savoir si Amazon peut effectivement empêcher les abus sur sa nouvelle plate-forme. Amazon a refusé de répondre aux questions de Fortune sur le rôle précis des éditeurs humains dans le système. Mais leur seule présence représente une acceptation du fait que les systèmes automatisés dans leur état actuel ne peuvent pas détecter de manière fiable un contenu offensant, ni évaluer l'exactitude des faits.

Amazon n'a jamais été confronté à ces défis aussi directement que des entreprises telles que Facebook et Twitter, bien que selon certains critiques, il n'ait même pas réussi à détecter de fausses critiques dans son propre magasin. Barton a dit Entreprise rapide qu'Amazon essaiera de garder les questions politiques en dehors du système, une tâche subtile qui, selon Gillard, va probablement tomber entre les mains des humains. “A.I. je ne peux pas faire ces choses ", dit-il," ça ne peut pas faire en contexte. "

Pourtant, les systèmes automatisés peuvent facilement détecter et bloquer les termes offensifs individuels, même si cela présente des inconvénients. Lors d’un test, ce journaliste a tenté de faire référence au groupe de rock Porno des années 90 pour Pyros en proposant une réponse Alexa. La réponse a été rejetée, non pas à cause d’inexactitude, mais à cause du mot «porno». Selon une notification, «Alexa ne dirait pas ça».

Tout n'a pas de réponse

Barton a dit Entreprise rapide que "nous aimerions que Alexa puisse répondre à toute question que les gens lui poseraient", mais cela est clairement impossible. On ne peut pas s'attendre à ce qu'Alexa sache, par exemple, quel est le sens de la vie, et le crowdsourcing des réponses à des questions qui sont des énigmes pourraient rendre le système plus fragile. Dans une étude réalisée en 2018, les chercheurs ont découvert que les requêtes malveillantes étaient plus faciles à imiter par des requêtes malveillantes avec des résultats faux ou trompeurs avec des données pertinentes limitées, appelées «vides de données».

Et les trolls ne sont pas le seul risque pour l’hygiène mentale d’Alexa. Même des questions bien intentionnées peuvent devenir insensées si Alexa n’interprète pas correctement le discours du questionneur. Par exemple, la question «Qu'est-ce qu'un titus de porcelet?» Est apparue sur Alexa Answers vendredi matin. Il semble probable que l'utilisateur ait réellement demandé «Qu'est-ce que l'épiglottite?» (Réponse: maladie de la gorge rare). Si suffisamment d'utilisateurs essayaient de répondre à la question absurde, peut-être Winnie l'ourson les fans, ou les utilisateurs avides de points – cela pourrait brouiller le pool de données, au lieu de l’améliorer.

On ne sait pas exactement comment les données malpropres ou malveillantes pourraient avoir un impact sur les performances d’Alexa – ces réponses sont encore loin. Mais c’est étonnant si, après toutes les difficultés rencontrées par des systèmes similaires, Amazon prend au sérieux les risques de réponses crowdsourcing.

Plus d'histoires à lire absolument Fortune:

Tueur de Netflix? Voici ce que les analystes disent à propos de Apple TV +
– Dernière idée de WeWork pour sauver son introduction en bourse en difficulté? Principaux changements de gouvernance
—La “mafia skype” soutient A.I. démarrage automatisation des négociations de contrat
—Jingles jusqu'au bout: la marque Sonic aide les entreprises de téléphonie vocale à se faire entendre
«À la pointe de l'innovation, l'entreprise utilise la physique quantique pour protéger ses données sur des réseaux de télécommunication
Rattraper Fiche technique, Digestion quotidienne de Fortune sur les affaires de la technologie.

Source

fortune.com

Leave A Reply