Site cover image

📰CISOの5分の1がGenAIによるデータ漏洩を認める

Fifth of CISOs Admit Staff Leaked Data Via GenAI

💡
要約

generative AI (GenAI) の従業員による誤用によって、企業の機密データが漏洩したことを報告しています。主な内容は以下の通りです。

  • イングランドの企業250社のCISOを対象とした調査により、5社に1社で従業員がGenAIを使って企業データを漏洩させていることが明らかになった。
  • サムスンでは、従業員がソースコードや会議メモをChatGPTに共有した事例があり、GenAIの使用を一時禁止した。
  • CISOの5分の1は、GenAIが自社に対する最大のサイバー脅威だと考えている。
  • 英国国家サイバーセキュリティセンター(NCSC)は、GenAIが社会工学的攻撃を改善し、今後2年間でサイバー攻撃の量と影響力を確実に増加させると警告した。
  • GenAIの使用は、AIが既存のチームの生産性を高めると期待されるため、サイバーセキュリティ予算を制限する間接的な原因となっている可能性がある。
  • 企業のCISOの83%がサイバースキル不足に直面しており、チームは限界に近い状態だと認めている。

要約すると、GenAIの誤用は企業機密データの漏洩リスクを高め、サイバーセキュリティ対策への投資を制限する可能性があり、企業はこの新しい脅威に対処する必要があることがわかる。

Table of contents

企業内のインサイダー脅威への懸念

  • 調査に回答したCISOの75%が、内部の従業員による脅威の方が外部の脅威よりも大きいと考えている。GenAIの誤用によるデータ漏洩がその一因と考えられる。

GenAIによるサイバー攻撃の増加への懸念

  • CISOの5分の1が、GenAIがサイバー攻撃を促進するため、自社にとって最大の脅威だと見なしている。
  • 英国NCScはGenAIが社会工学的攻撃を改善し、今後2年間でサイバー攻撃の量と深刻度を確実に高めると警告した。

GenAIがサイバーセキュリティ予算に与える影響

  • 調査対象のCISOの3分の2(65%)が、GenAIの導入によりサイバーセキュリティ予算が制限されたと回答した。
  • 経営陣はGenAIが既存チームの生産性を高めると期待しているため、追加の予算配分を渋っているという見方があるとのこと。

企業のスキル不足

  • 調査では、CISOの83%が自社にサイバースキル不足があると認めた。
  • 既存のチームは限界に近い状況にあり、新たな脅威に適切に対処できない恐れがある。
💡
つまり、GenAIの誤用は機密データ漏洩の新たなリスクとなり、サイバー攻撃の増加が懸念されている一方で、企業はスキル不足とコスト抑制の狭間で適切な対策を打つのが難しい状況にあるということがわかります。

GenAIのどのような機能がデータ漏洩を引き起こすのか?

  • 学習データの取り込み: GenAIは大量のデータを取り込むことで学習しますが、このデータに機密情報が含まれている場合、その情報がモデルに記憶され、出力結果に反映される可能性があります。
  • プロンプトインジェクション: 悪意のあるユーザーがGenAIに特定の指示を与えることで、機密情報を引き出すことが可能です。
  • モデルの盗難: 攻撃者がGenAIモデル自体を盗み出すことで、その中に含まれる機密情報にアクセスできる可能性があります。

企業が取るべき対策とは?

  • GenAIの使用ポリシーの策定: 従業員がGenAIをどのように使用すべきか、明確なルールを定めることが重要です。
  • データの分類と保護: 機密情報を特定し、適切なアクセス制御を実施する必要があります。
  • 従業員教育: GenAIのリスクと安全な使用方法について、従業員を教育することが重要です。
  • GenAIツールの監視: 従業員がGenAIツールをどのように使用しているか監視し、不適切な使用を検知する必要があります。
  • セキュリティソリューションの導入: GenAIに特化したセキュリティソリューションを導入することで、リスクを軽減できます。
💡
GenAIのメリットとリスクを理解し、適切な対策を取ることで、安全に活用することが可能です。

GenAIに特化したセキュリティソリューションの例

GenAIのセキュリティリスクに対処するために開発されたソリューションは多岐にわたります。以下にいくつかの例を挙げます。

1. データ漏洩防止 (DLP) ソリューション:

  • GenAIモデルへの入力データや出力結果を監視し、機密情報が含まれていないかチェックします。
  • 機密情報が検出された場合、アラートを発したり、アクセスをブロックしたりすることで、情報漏洩を防ぎます。

2. プロンプトインジェクション対策ソリューション:

  • 悪意のあるプロンプトを検知し、GenAIモデルが不正な出力を生成することを防ぎます。
  • プロンプトのフィルタリングやサニタイズを行うことで、攻撃を防ぎます。

3. モデルセキュリティソリューション:

  • GenAIモデル自体を保護し、盗難や改ざんを防ぎます。
  • モデルの暗号化やアクセス制御を行うことで、セキュリティを強化します。

4. 行動分析ソリューション:

  • 従業員のGenAIツールの使用状況を監視し、不審な行動を検知します。
  • 機密情報のダウンロードや外部への送信など、リスクの高い行動を特定し、アラートを発します。

5. AIガバナンスプラットフォーム:

  • GenAIの開発、運用、監視を一元管理するプラットフォームです。
  • モデルのバイアスや公平性、説明可能性などを評価し、倫理的なAI利用を促進します。

これらのソリューションに加えて、以下のような技術もGenAIセキュリティに貢献します。

  • 準同型暗号: 暗号化したままデータを処理できる技術であり、機密情報を保護しながらGenAIを利用できます。
  • 差分プライバシー: データにノイズを加えることで、個人のプライバシーを保護しながら分析を行う技術です。
  • フェデレーテッドラーニング: データを中央サーバーに集約せずに、分散した状態でモデルを学習させる技術です。
💡
GenAIのセキュリティ対策は、技術的なソリューションだけでなく、組織的な取り組みも重要です。 従業員教育やポリシーの策定など、総合的なアプローチが必要です。


「上記記事は私が頑張って❓編集しました💗。」
Featured image of the post