banner
ホームページ / ブログ / プライバシーを明らかにする
ブログ

プライバシーを明らかにする

Jun 18, 2023Jun 18, 2023

データ主導の意思決定の時代において、企業は機械学習 (ML) の力を活用して、貴重な洞察を引き出し、運用効率を高め、競争上の優位性を確立しています。

生成人工知能 (AI) の最近の発展により、AI/ML の力に対する前例のない認識が高まりましたが、プライバシーとセキュリティの基本的なニーズも明らかになりました。 IAPP、ブルッキングス、ガートナーの最近の AI TRiSM フレームワークなどのグループは、リスク プロファイルを増大させることなく AI を通じて独自に得られるビジネス成果の達成を目指す組織向けの重要な考慮事項を概説しています。

これらの必須事項の最前線にあるのは、ML モデルのセキュリティです。 この重要な分野に直接対処するプライバシー保護機械学習は、ユーザーがこのますます重要性を増している分野で ML アプリケーションの可能性を最大限に活用できるようにするための手段として浮上しています。

機械学習モデルは、データを処理して有意義な洞察を生成し、重要なビジネス上の意思決定を行うアルゴリズムです。 ML の優れた点は、継続的に学習して改善できる能力です。 モデルが新しい異種のデータセットでトレーニングされると、時間の経過とともにモデルはより賢くなり、以前はアクセスできなかった正確で価値のある洞察が得られます。 これらのモデルは、データから洞察を生成するために使用できます。これは、モデルの評価または推論と呼ばれます。

最良の結果を実現するには、モデルを学習し、さまざまな豊富なデータ ソースを活用する必要があります。 これらのデータ ソースに機密情報や専有情報が含まれている場合、それらを機械学習モデルのトレーニングや評価/推論に使用すると、プライバシーとセキュリティに関する重大な懸念が生じます。 モデル自体の脆弱性は、それを使用する企業にとって責任となります。これは、ビジネスを強化する実用的な洞察を提供すると約束されていたこの機能が、組織のリスク プロファイルを増大させていることを意味します。

この問題は、今日の ML の広範な使用を妨げる主な障壁の 1 つです。 企業は、ML の利点と自社の利益を保護し、進化し続けるプライバシーと規制要件に準拠する必要性とのバランスをとるという課題に直面しています。

ML モデルの脆弱性は通常、モデル反転とモデル スプーフィングという 2 つのマクロ カテゴリの攻撃ベクトルにつながります。

モデル反転攻撃では、モデル自体をターゲットにして、トレーニングに使用されたデータ (機密性が高く、攻撃者にとって貴重なデータである可能性が高い) にリバース エンジニアリングを行います。 これには、個人を特定できる情報 (PII)、知的財産 (IP)、および公開された場合に組織に大混乱を引き起こす可能性のあるその他の機密情報や規制情報が含まれる可能性があります。

一方、モデル スプーフィングは、敵対的機械学習の一種で、モデルが攻撃者の意図に沿った誤った決定を下すように、攻撃者が入力データを操作してモデルを欺こうとします。 このプロセスには、モデルの動作を注意深く観察または「学習」し、その後入力データを (多くの場合知覚できない方法で) 変更して、モデルを騙して目的に有利な決定を下すことが含まれます。 これらの攻撃はどちらも、ML モデルの重要な部分であるモデルの重みに関連する脆弱性を標的としています。 そのため、最近ホワイトハウスが招集した AI リスクに関する議論の中で、モデルの体重保護を優先する重要な必要性が強調されました。

プライバシー保護機械学習は、プライバシー強化テクノロジー (PET) の進歩を利用して、これらの脆弱性に正面から対処します。 PET は、処理ライフサイクル全体を通じてデータのプライバシーとセキュリティを維持および強化するテクノロジーのファミリーであり、安全でプライベートなデータの使用を独自に可能にします。 これらの強力なテクノロジーにより、企業は機密性の高い ML モデルを暗号化し、実行および/またはトレーニングして、漏洩のリスクを排除しながら貴重な洞察を抽出することができます。 企業は、競争上の利益が関係している場合でも、組織の境界やセキュリティ ドメインを越えて、異種データ ソースを安全に活用できます。