AI モデルのセキュリティ

Important

この機能は現在プレビュー段階であり、AI サービス用 Microsoft Defender プランに含まれています。 プレビュー期間中は、AI モデルのスキャンに追加料金はかかりません。 ただし、AI サービス用 Defenderプランを有効にすると、脅威保護機能に関連するコストが発生する可能性があります。 AI サービス用 Defenderの一部として AI モデル スキャン機能を継続的に含めることは保証されず、一般公開 (GA) になると、ライセンス要件が変更される可能性があります。 その場合、機能が無効になる前に通知が送信され、該当するライセンスで再度有効にするためのオプションが表示されます。

組織が人工知能 (AI) モデルを使用して自動化、分析情報、インテリジェントな意思決定を推進するにつれて、セキュリティ チームは、環境に入る AI モデルの安全性とコンプライアンスを評価するために可視性と制御を必要とします。 これらのモデルは、多くの場合、データとインフラストラクチャに幅広くアクセスできます。 これらの機能がないと、内部標準の適用がますます困難になります。

Microsoft Defender for Cloudの AI セキュリティのDefenderでは、AI モデルのスキャンがサポートされます。 AI モデル スキャンでは、安全でないアーティファクトまたは悪意のある成果物を事前に検出し、AI ライフサイクル全体にわたってモデルのリスクを継続的に監視します。

AI モデルのセキュリティは、AI モデルが運用環境に到達する前に、埋め込みマルウェア、安全でないオペレーター、公開されたシークレットなどのセキュリティ リスクについて AI モデルを自動的にスキャンします。 このサービスは、Azure Machine Learningおよび CI/CD パイプラインと直接統合されているため、リアルタイムの調査結果と実用的な修復ガイダンスが表示されるため、チームは開発プロセスの早い段階で危険なモデルを停止できます。

AI モデルのセキュリティを使用することで、セキュリティ チームは、Azure Machine Learningワークスペースとレジストリにアップロードされたカスタム AI モデルをスキャンして、埋め込まれたマルウェア、安全でないオペレーター、公開されたシークレットなどの脅威を特定できます。 Defender for Cloudは結果を提示し、チームはセキュリティの結果と共に重大度評価、修復ガイダンス、関連するモデル メタデータを可視化し、効果的なトリアージと優先順位付けをサポートします。 開発者は、Azure DevOpsまたはGitHub パイプラインと統合された CLI ツールを使用して、ビルドまたはリリースの段階でモデル スキャンをトリガーすることもできます。これにより、モデルが運用環境に到達する前に静的スキャンと早期リスク検出が可能になります。

前提条件

  • Azure Machine Learning (Azure Machine Learning) レジストリまたはワークスペースに登録されている AI モデルを含むAzure サブスクリプションが必要です。

プライベート リンクを使用するワークスペースとレジストリはサポートされていません。

  • Defender for Cloud セキュリティ体制管理計画を使用できます。

  • AI サービスと、計画の AI モデル セキュリティ コンポーネントに対して脅威保護を有効にする必要があります。

  • 必要なアクセス許可: プランを有効にするには、Azure Machine Learning リソースに対する Owner または Contributor レベルのアクセス許可が必要です。

  • サポートされているモデル ファイル形式: Pickle (.pkl)HDF5 (.h5)TorchScript (.pt)ONNX (.onnx)SafeTensors (.safetensors)TensorFlow SavedModel / TFLite (FlatBuffers)NumPy (.npy)Arrow, MsgPack, dill, joblibPMML, JSON, POJO, MOJO, GGUF

  • ファイル サイズの制限: 10 GB。 10 GB を超えるモデル ファイルはスキャンできません。

  • スキャンは週に 1 回行われます。

環境内のすべての AI モデルを検索する

  1. Azure ポータルにサインインします。

  2. Microsoft Defender for Cloudを検索して選択します。

  3. Cloud Security Explorer を選択します。

  4. AI & MlsAI モデルを選択します。

    Cloud Security Explorer のドロップダウン リストから AI モデルを選択する場所を示すスクリーンショット。

  5. 完了を選択します。

  6. + を選択します。

  7. >。

    [AI モデル メタデータ] オプションを選択する方法を示すスクリーンショット。

  8. 検索 を選択します。

Cloud Security Explorer には、環境内のすべての AI モデルが表示されます。 [ 詳細の表示 ] を選択すると、選択した各モデルに関する詳細情報を表示できます。

セキュリティの結果を使用して AI モデルを検索する

Cloud Security Explorer を使用して、アクティブなセキュリティ結果を持つ AI モデルを見つけます。

  1. 環境内のすべての AI モデルを検索する」セクションの 手順 1 から 7 に従います。

  2. + を選択します。

  3. [ 推奨事項>すべての推奨事項] を選択します。

    [すべての推奨事項] オプションを選択する方法を示すスクリーンショット。

  4. 検索 を選択します。

Cloud Security Explorer には、アクティブなセキュリティ結果を持つ環境内のすべての AI モデルが表示されます。 ビュー の詳細 を選択すると、各モデルと関連する結果に関する詳細情報が表示されます。

環境内のすべての AI モデルを検索する

Defender ポータル Assets ページには、環境内のすべての AI モデルの包括的なビューが表示されます。

  1. Microsoft Defender ポータルにサインインします。

  2. Assets>Cloud>AI>AI モデルに移動します。

    すべての AI モデルが表示されたDefender ポータル資産ページに移動する方法を示すスクリーンショット。

  3. 推奨事項を含む AI モデルを選択します。

    少なくとも 1 つの推奨事項がそれらに影響を与える AI モデルを示すスクリーンショット。

  4. アセットページを開くを選択します。

    [資産ページを開く] ボタンがある場所を示すスクリーンショット。

  5. [ セキュリティに関する推奨事項> 関連する推奨事項を選択します。

  6. 必要に応じて、セキュリティの検出を確認して修復します。

Azure ポータルで推奨事項を管理することもできます。

次のステップ