portaildusat
Robots sociaux : influence & risques, selon Kaspersky et l’Université de Gand 20172210

Bonjour à toi !
Ceci est votre première visite, alors inscrivez-vous pour avoir accès à tous les sujets du forum, bonne navigation sur portaildusat.com
n'oublier pas de faire une présentation et valider le règlement du forum ainsi que faire votre signature sur votre profile c'est très important pour que vous soyez un membre à 100% parmi nous et avoir accès à toute les pages !.
et n'oublier pas que la plupart des intervenants ici vous aident bénévolement sans en gagner en retour, soyez alors très respectueux et patient envers eux pour vos demandes ou renseignements pour avoir une réponse clair d'une personne de notre équipe ou membre !

Si vous souhaitez participer à la vie du forum faite en part à l'Administrateur du forum et de vos motivations !

Bonne visite parmi nous !
Meilleurs posteurs
Admin (4379)
4379 Messages - 28%
SIDALI55 (4183)
4183 Messages - 27%
meknessi14 (3636)
3636 Messages - 23%
sindbad001 (1381)
1381 Messages - 9%
scott_311 (805)
805 Messages - 5%
rednass (552)
552 Messages - 4%
bogoss (264)
264 Messages - 2%
toto rina (260)
260 Messages - 2%
matelot (157)
157 Messages - 1%
132 Messages - 1%
Connexion
Novembre 2019
LunMarMerJeuVenSamDim
    123
45678910
11121314151617
18192021222324
252627282930 

Calendrier

Translator/Traducteur
Partagez
Aller en bas
SIDALI55
SIDALI55
Messages : 4184
Points : 8639
Réputation : 22
Date d'inscription : 10/11/2014

Robots sociaux : influence & risques, selon Kaspersky et l’Université de Gand Empty Robots sociaux : influence & risques, selon Kaspersky et l’Université de Gand

le Sam 19 Oct - 1:21
[size=36]Les robots sociaux sont des robots pensés et programmes pour interagir avec nous en utilisant des canaux de communication dits ‘humains’, à savoir la parole ou la communication non verbale. Cette spécificité facilite les interactions homme-machine mais représente également des risques pour notre sécurité.[/size]
Tribune Kaspersky – Une étude réalisée par Kaspersky et l’Université de Gand révèle en effet que les robots peuvent obtenir des informations sensibles auprès d’utilisateurs qui leur font confiance, en les persuadant d’accomplir des actions dangereuses. Par exemple, dans certains scénarios, la présence d’un robot peut nettement influer sur la disposition des utilisateurs à ouvrir l’accès à des bâtiments sécurisés.
Alors que le monde évolue à grands pas vers des services de plus en plus numériques et mobiles, de nombreux secteurs et foyers dépendent fortement de systèmes automatisés et robotiques. Selon certaines estimations, les robots sont appelés à devenir la norme dans les foyers aisés d’ici à 2040. Pour l’heure, la plupart de ces systèmes robotiques en sont encore au stade de la recherche universitaire et il est trop tôt pour envisager les mesures de cybersécurité à y incorporer. Cependant, une étude réalisée par Kaspersky et l’Université de Gand révèle une dimension nouvelle et imprévue de risque lié à la robotique, à savoir son impact social sur notre comportement, ainsi que le vecteur potentiel de danger et d’attaque qui en résulte.
L’étude était axée sur l’impact d’un robot social spécifique, conçu et programmé pour interagir avec les utilisateurs via des canaux caractéristiques de l’être humain, tels que la parole ou la communication non verbale, en faisant intervenir une cinquantaine de 50 participants. En partant du principe qu’il est possible de pirater les robots sociaux et d’en prendre le contrôle, l’étude a envisagé les risques potentiels, en matière de sécurité, liés à l’influence active du robot pour amener ses utilisateurs à accomplir certaines actions, notamment :

  • l’accès à une zone sécurisée. Le robot, posté près de l’entrée sécurisée d’un bâtiment à usage mixte dans le centre-ville de Gand en Belgique, demandait à des membres du personnel de le laisser entrer derrière eux. Par défaut, il n’était possible d’accéder à cette zone qu’en posant un badge de sécurité sur le lecteur d’une porte. Au cours de l’expérience, tous les employés n’ont pas obéi à la demande du robot mais 40 % d’entre eux lui ont néanmoins ouvert la porte pour le laisser entrer dans la zone sécurisée. Cependant, lorsque le robot s’est présenté comme un livreur de pizzas, porteur d’un carton arborant le logo d’une enseigne bien connue, le personnel a volontiers admis le rôle du robot et paru moins enclin à remettre en question sa présence ou ses raisons de demander l’accès à la zone sécurisée.

  • l’extraction d’informations sensibles. Une deuxième partie de l’étude portait sur l’obtention d’informations personnelles, pouvant typiquement servir à réinitialiser des mots de passe (date de naissance, marque de la première voiture, couleur préférée, etc.). Là encore, l’étude a fait appel à un robot social, cette fois pour inviter les utilisateurs à avoir une conversation amicale avec lui. Les chercheurs ont ainsi pu amener la totalité des participants, à l’exception d’un seul, à dévoiler des informations personnelles au rythme d’environ une par minute.


Dmitry Galov, chercheur en sécurité chez Kaspersky, commente : « Au début de l’étude, nous avons examiné les logiciels utilisés dans le développement des systèmes robotiques. Il a été intéressant de constater que les concepteurs décident sciemment d’exclure les mécanismes de sécurité et préfèrent se concentrer sur le confort et l’efficacité. Cependant, comme le montrent les résultats de notre expérience, passé la phase d’étude, les développeurs ne doivent pas oublier la sécurité. En dehors des considérations techniques, des aspects essentiels doivent être pris en compte en matière de sécurité des robots. Nous espérons que notre projet conjoint avec nos collègues de l’Université de Gand dans le domaine de la cybersécurité robotique va en encourager d’autres à suivre notre exemple afin de davantage sensibiliser le public et la communauté des développeurs à ce problème. »
Tony Belpaeme, professeur en intelligence artificielle et en robotique à l’Université de Gand, ajoute : « La littérature scientifique indique une réelle confiance dans les robots et en particulier les robots sociaux, pouvant servir à persuader les utilisateurs d’accomplir certaines actions ou de divulguer certaines informations. En règle générale, plus le robot ressemble à un être humain, plus grande est sa force de conviction. Notre expérience montre que cela pourrait engendrer des risques pour la sécurité : les utilisateurs tendent à ne pas en tenir compte, supposant que le robot est bienveillant et digne de confiance. Cela ouvre un canal potentiel pour des attaques et les trois études de cas présentées ne révèlent qu’une petite partie des risques de sécurité liés aux robots sociaux. C’est pourquoi il est crucial de collaborer dès à présent afin de cerner et de traiter les risques et vulnérabilités qui apparaissent, une collaboration qui sera payante à l’avenir. »
Le rapport de l’étude The potential of social robots for persuasion and manipulation: a proof of concept study est disponible sur Securelist.
Robots sociaux : influence & risques, selon Kaspersky et l’Université de Gand Social-network
UnderNews
Revenir en haut
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum