Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Von Bedeutung
Dieses Feature befindet sich derzeit in der Vorschau und ist im Microsoft Defender for AI Services Plan enthalten. Während der Vorschau fallen keine zusätzlichen Kosten für die KI-Modellüberprüfung an. Das Aktivieren des Defender for AI Services Plans kann jedoch Kosten im Zusammenhang mit Bedrohungsschutzfeatures verursachen. Die fortgesetzte Einbeziehung der KI-Modellscanfunktion als Teil Defender for AI Services ist nicht garantiert, wenn sie allgemein verfügbar (GA) wird, und die Lizenzierungsanforderungen können sich ändern. Wenn dies der Fall ist, wird eine Benachrichtigung gesendet, bevor das Feature mit Optionen deaktiviert wird, um es unter der entsprechenden Lizenz erneut zu aktivieren.
Da Organisationen zunehmend Ki-Modelle (Künstliche Intelligenz) verwenden, um Automatisierung, Erkenntnisse und intelligente Entscheidungsfindung zu fördern, benötigen Sicherheitsteams Sichtbarkeit und Kontrolle, um die Sicherheit und Compliance von KI-Modellen zu bewerten, die in ihre Umgebungen eintreten. Diese Modelle haben häufig breiten Zugriff auf Daten und Infrastruktur. Ohne diese Funktionen wird es immer schwieriger, interne Standards durchzusetzen.
Microsoft Defender for Cloud's Defender für KI-Sicherheit unterstützt das Scannen von KI-Modellen. KI-Modellscans bieten proaktive Erkennung unsicherer oder bösartiger Artefakte und überwacht kontinuierlich Modelle auf Risiken während des gesamten KI-Lebenszyklus.
Ki-Modellsicherheit überprüft KI-Modelle automatisch auf Sicherheitsrisiken wie eingebettete Schadsoftware, unsichere Operatoren und offengelegte Geheimnisse, bevor diese Modelle zur Produktion gelangen. Integriert direkt in Azure Machine Learning- und CI/CD-Pipelines, stellt der Dienst Echtzeitergebnisse und umsetzbare Handlungsempfehlungen bereit, sodass Teams riskante Modelle frühzeitig im Entwicklungsprozess erkennen und stoppen können.
Mithilfe der KI-Modellsicherheit können Sicherheitsteams benutzerdefinierte KI-Modelle scannen, die in Azure Machine Learning Arbeitsbereiche und Registrierungen hochgeladen wurden, um Bedrohungen wie eingebettete Schadsoftware, unsichere Operatoren und offengelegte Geheimnisse zu identifizieren. Defender for Cloud präsentiert die Ergebnisse, wodurch Teams Einblicke in Sicherheitsergebnisse sowie Schweregradbewertungen, Korrekturleitfäden und relevante Modellmetadaten erhalten, um effektive Triage und Priorisierung zu unterstützen. Entwickler können Modellscans auch während der Build- oder Releasephasen auslösen, indem SIE CLI-Tools verwenden, die in Azure DevOps oder GitHub Pipelines integriert sind, wodurch statisches Scannen und frühzeitige Risikoerkennung ermöglicht werden, bevor Modelle die Produktion erreichen.
Voraussetzungen
- Sie müssen über ein Azure-Abonnement verfügen, das KI-Modelle enthält, die in Azure Machine Learning (Azure Machine Learning) Registern oder Arbeitsbereichen registriert sind.
Hinweis
Arbeitsbereiche und Registrierungen, die einen privaten Link verwenden, werden nicht unterstützt.
Aktivieren Sie den Defender für Cloud-Sicherheitslageverwaltung-Plan.
Sie müssen den Bedrohungsschutz für KI-Dienste und die KI-Modellsicherheitskomponente des Plans aktivieren.
Erforderliche Berechtigungen: Zum Aktivieren des Plans benötigen Sie Owner oder Contributor Ebenenberechtigungen für die Azure Machine Learning Ressourcen.
Unterstützte Modelldateiformate:
Pickle (.pkl), ,HDF5 (.h5),TorchScript (.pt)ONNX (.onnx),SafeTensors (.safetensors),TensorFlow SavedModel / TFLite (FlatBuffers)NumPy (.npy), .Arrow, MsgPack, dill, joblibPMML, JSON, POJO, MOJO, GGUFDateigrößenbeschränkung: 10 GB. Modelldateien, die größer als 10 GB sind, können nicht gescannt werden.
Der Scan erfolgt einmal pro Woche.
Lokalisieren Sie alle KI-Modelle in Ihrer Umgebung
Melden Sie sich beim portal Azure an.
Suchen Sie und wählen Sie Microsoft Defender for Cloud aus.
Wählen Sie Cloud Security Explorer aus.
Wählen Sie AI & Mls>AI-Modelle aus.
Wählen Sie Fertig aus.
Wähle + aus.
Wählen Sie Metadaten>KI-Modellmetadaten aus.
Klicken Sie auf Suchen.
Im Cloud Security Explorer werden alle KI-Modelle in Ihrer Umgebung angezeigt. Sie können Ansichtsdetails auswählen, um weitere Informationen zu jedem ausgewählten Modell anzuzeigen.
Suchen von KI-Modellen mit Sicherheitsergebnissen
Verwenden Sie den Cloud Security Explorer, um KI-Modelle mit aktiven Sicherheitsergebnissen zu finden.
Führen Sie die Schritte 1 bis 7 im Abschnitt "Alle KI-Modelle in Ihrer Umgebung suchen" aus .
Wähle + aus.
Wählen Sie "Empfehlungen>alle Empfehlungen" aus.
Klicken Sie auf Suchen.
Im Cloud Security Explorer werden alle KI-Modelle in Ihrer Umgebung mit aktiven Sicherheitsergebnissen angezeigt. Wählen Sie Ansichtsdetails aus, um weitere Informationen zu jedem Modell und den zugehörigen Ergebnissen anzuzeigen.
Lokalisieren Sie alle KI-Modelle in Ihrer Umgebung
Die Seite Defender Portal Assets bietet eine umfassende Übersicht über alle KI-Modelle in Ihrer Umgebung.
Melden Sie sich beim portal Microsoft Defender an.
Gehen Sie zu Assets>Cloud>AI>AI-Modelle.
Wählen Sie ein KI-Modell mit Empfehlungen aus.
Wählen Sie 'Seite Asset öffnen' aus.
Wählen Sie sicherheitsrelevante Empfehlungen> aus.
Überprüfen und beheben Sie den Sicherheitsbefund nach Bedarf.
Sie können die Empfehlung auch im Azure Portal verwalten.