メインコンテンツにスキップする

[本リリースは、2023年10月11日にKasperskyが発表したプレスリリースに基づき作成したものです]

Kasperskyはこのたび、人工知能(AI)または機械学習(ML)を採用した自社システムの開発と使用に関する倫理的原則を定め、ホワイトペーパーとして公開しました。これにより、テクノロジー開発に対する透明で責任あるアプローチへの取り組みを強化します。サイバーセキュリティにおいてAIアルゴリズムはますます重要な役割を果たすようになっています。ホワイトペーパーでは、当社がどのようにしてAI駆動型テクノロジーの信頼性を確保し、また、AI/MLアルゴリズムの使用リスクを軽減するためのガイダンスを業界関係者に提供するために倫理的原則を説明しています。当社は、国連主催の「インターネット・ガバナンス・フォーラム※1(10月8日~12日、京都で開催」において、当倫理的原則に関するワークショップ(リンク先は同フォーラムのWebサイト、英語)を実施しました。

Kasperskyは20年近くにわたり、AIの一部であるMLアルゴリズムを自社ソリューションに採用しています。各ソリューションでは、人工知能に人間の専門知識を組み合わせることにより、毎日新たに発生する多種多様なサイバー脅威を効果的に検知して対策を講じています。MLは脅威と異常の検知を自動化し、マルウェアの識別精度を向上させる点において重要な役割を果たしています。今回のAI/MLの開発と使用に関する原則の策定は、イノベーションを推進し、AIが世界をより良い場所にするために使用されることを確実にするための多国間の対話の原動力となることを目指し、その原則を公開し共有するものです。

当社はAI/MLをシームレスに開発し使用するためには、次の六つの原則を考慮する必要があると考えています。

1.透明性
2.安全性
3.人間による制御
4.プライバシー
5.サイバーセキュリティのための開発
6.
開かれた対話

1. 透明性 : 企業は自社の製品やサービスにおけるAI/MLテクノロジーの使用について、顧客に知らせるべきであるという確固たる信念が当社にはあります。当社は、可能な限り最大限まで解釈可能なAI/MLシステムを開発するとともに、当社のソリューションの動作やAI/MLテクノロジーの使用方法に関する情報をステークホルダーと共有することで、この原則を順守しています。

2. 安全性 : 安全性は、当社がAI/MLシステムの品質を確保するために実装している幅広い厳格な施策に反映されています。例えば、AI/MLに特化したセキュリティ監査、AI駆動型ソリューションのトレーニングプロセスにおけるサードパーティのデータセットへの依存を最小化する手順、クライアントのマシンにインストールされたモデルではなく必要な安全対策を備えたクラウドベースのMLテクノロジーの採用などがあります。

3. 人間による制御 : 複雑な脅威、特にAPT攻撃(Advanced Persistent Threat、持続的標的型攻撃)の分析に関して人間が制御する重要性は、当社専門家がAI/MLシステムの動作を必要に応じ調整していることで説明されます。進化し続ける脅威に対して効果的な保護を実現するために、当社のあらゆるAI/MLシステムに不可欠な要素として、人間による制御を維持することに全力を注いでいます。

4. プライバシー : AI/MLシステムのトレーニングプロセスでは、ビッグデータが重要な役割を果たしており、AI/MLを採用している企業は、個人のプライバシーを総合的に考慮する必要があります。当社は、プライバシーに関する個人の権利を尊重することに取り組んでおり、データやシステムを保護するために多くの技術的および組織的な対策を適用し、プライバシーに関するユーザーの権利が有意義に行使されることを保証しています。

5. サイバーセキュリティのための開発 : AI/MLシステムは防御目的にのみ使用します。防御テクノロジーに特化することで、より安全な世界を構築するという当社の使命を追求し、ユーザーとそのデータを保護するという決意を示しています。

6. 開かれた対話 : AIの倫理的使用におけるベストプラクティスを共有するために、当社は全てのステークホルダーとの対話にいつでもオープンです。当社は、全てのステークホルダー間での継続的な協力を通じてのみ、障害を克服してイノベーションを推進し新たな展望を切り開くことができると考えています。

KasperskyのCTO(最高技術責任者)アントン・イワノフ(Anton Ivanov)は、次のようにコメントしています。「人工知能はサイバーセキュリティ業界に数多くのメリットをもたらし、社会のサイバー耐性をさらに高める可能性を秘めています。しかし、開発の初期段階にあるテクノロジーと同様に、人工知能にもリスクは存在します。私たちは、AIを取り巻く懸念に対処するために倫理原則を発表しました。これにより、AIの利用に関する独自のベストプラクティスを共有すると同時に、AIおよびML駆動型ソリューションの開発が倫理的であると判断されるにはどのような考慮事項が必要なのかについて、明確なガイドラインを策定するための業界全体にわたるオープンな対話を呼びかけています」

この倫理原則の発表は、当社の透明性への取り組み(Global Transparency Initiative)の延長であり、より耐性のあるサイバーセキュリティ世界の実現のために、テクノロジープロバイダー間の透明性と説明責任の原則を推進するものです。この取り組みや当社の透明性の原則については、世界各国に開設したトランスペアレンシーセンターでより詳しくご説明します。

※1 インターネット・ガバナンス・フォーラムは、インターネットガバナンスを担当する世界中の専門家・関係者が集う国連主催の年次イベントです。今年の主要トピックの一つに「AI・先端技術」があり、当社はAIの開発と使用の倫理的原則について議論するワークショップを開催し、技術的および法的な考慮事項に関して協議を行いました。

Kaspersky、サイバーセキュリティにおけるAIの責任ある利用を呼びかけ、倫理的な開発と使用の原則をホワイトペーパーとして公開

今回のAI/MLの開発と使用に関する原則の策定は、イノベーションを推進し、AIが世界をより良い場所にするために使用されることを確実にするための多国間の対話の原動力となることを目指し、その原則を公開し共有するものです。
Kaspersky Logo