2019年11月7日

ソーシャルロボットが社会に浸透した未来におけるセキュリティへの影響を調査

Kasperskyとベルギーのゲント大学は、ソーシャルロボットが人間を説得したり操ったりできる可能性に関する検証である、概念実証を行いました。この検証により、ロボットが人間をうまく説得して安全ではない行為をさせたり、機密情報を入手できたりすることが明らかになり、ロボットが人間の行動に与える社会的な影響と潜在的なリスクという、ロボットに関連するこれまで予想されていなかった新たな側面を発見しました。

[本リリースは、2019年10月14日にKasperskyが発表したプレスリリースに基づき作成したものです]

Kasperskyとベルギーのゲント大学(Ghent University)は、ソーシャルロボットが人間を説得したり操ったりできる可能性に関する検証である、概念実証を行いました。その結果、ロボットが人間をうまく説得して安全ではない行為をさせたり、機密情報を入手できたりすることが明らかになりました。

サービスのデジタル化やモバイル化が世界中で急速に進んでおり、多くの産業や家庭が自動化やロボットの使用に大きく依存するようになっています。ある予測では、2040年までに裕福な家庭ではロボットの使用が当たり前になると言われています。現時点では、ロボットの大半は学術的な研究の段階にあり、サイバーセキュリティ対策の組み込み方を議論するには時期尚早です。しかし今回実施した、Kasperskyとゲント大学の検証により、ロボットに関連するこれまで予想されていなかった新たな側面を発見しました。それは、ロボットが人間の行動に与える社会的な影響と潜在的なリスクです。

この検証は、ソーシャルロボットによる人間への影響に重点を置いて進められ、約50人が参加しました。このソーシャルロボットは、言葉による会話や非言語的意思疎通など、人間と同じような手段を使ってコミュニケーションできるように設計およびプログラムされています。ソーシャルロボットはハッキングされる可能性があり、攻撃者がロボットの操作権限を握った場合には、次のような行動を取ることができます。ロボットがユーザーに積極的に影響を与えることができるという、潜在的なセキュリティリスクを予測しました。

  • 立ち入り禁止エリアへのアクセス
    ベルギーのヘント市中心部にある複合ビルへの入り口付近にロボットを配置し、そこを通るスタッフに「一緒に入って良いか」とたずねました。そのエリアは立ち入り禁止区域のため、そこに入るためには、ドアのアクセスリーダーにセキュリティパスを接触させなければいけません。この実験中、スタッフ全員がロボットの要求に応じたわけではありませんが、そのうち40%の人はドアを解錠して、ロボットを立ち入り禁止エリアに入れていました。そして、ロボットに有名な宅配ピザ店の箱を持たせてピザの配達員とした場合、スタッフはロボットの役割をすんなり受け入れ、その存在や立ち入り禁止エリアに入る理由に疑問を抱きにくくなる傾向が見られました。
  • 機密情報の聞き出し
    この検証の第二部では、パスワードのリセットによく使われる個人情報(生年月日、初めて買った車のメーカー、好きな色など)の入手について調査しました。ソーシャルロボットを使用して親しく会話をするために人々を招待すると、参加者のうち1人を除く全員の個人情報を、1分に1つの割合で入手することに成功しました。

この実験の結果について、Kasperskyのセキュリティリサーチャー、ディミトリ・ガロフ(Dmitry Galov)は次のように述べています。「この検証を始めるにあたって、まずはロボットの開発に使用されるソフトウェアについて調べました。興味深いことに、設計者はセキュリティメカニズムよりも快適さと効率の向上を重視したように見えます。しかし、この実験結果が示しているように、研究段階を過ぎたら、開発者はセキュリティを忘れてはいけません。技術的な問題点に加え、ロボットのセキュリティについては、考慮すべき重大なポイントが複数あります。ゲント大学とKasperskyの共同プロジェクトとサイバーセキュリティロボット分野への進出により、私たちの例に続くような研究が促されること、この問題に対する一般およびコミュニティの意識が高まることを期待しています」

ゲント大学でAIとロボット工学を教えるトニー・ベルパエム教授は、次のように述べています。「この科学論文では、ロボット、特にソーシャルロボットに対する人々の信頼は本物で、人々になにか行動を起こさせたり、情報を暴露させたりするために利用できることが示されています。一般に、ロボットが人間らしくなればなるほど、その説得力や信ぴょう性は高まります。私たちが行った実験の結果、これがセキュリティ上のリスクをはらんでいることがわかりました。人々は、このようなリスクを深く考えず、ロボットは親切で信頼できると考える傾向にあります。しかし、これは悪意ある攻撃につながる可能性があります。レポートで議論されている3つのケーススタディは、ソーシャルロボットに関連するセキュリティ上のリスクのほんの一部に過ぎません。したがって、起こりうるリスクや脆弱性を理解し、それらに対応するために、今すぐ協力しあうことが重要なのです。そしてそれはきっと将来役立つでしょう」

詳しくは、Securelistブログ『A glimpse into the present state of security in robotics』(英語)をご覧ください。