Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Importante
Questa funzionalità è attualmente in anteprima e inclusa nel piano di Microsoft Defender per i servizi di intelligenza artificiale. Durante l'anteprima non sono previsti costi aggiuntivi per l'analisi del modello di intelligenza artificiale. Tuttavia, l'abilitazione del piano di Defender per i servizi di intelligenza artificiale può comportare costi correlati alle funzionalità di protezione dalle minacce. L'inclusione continua della funzionalità di analisi dei modelli di intelligenza artificiale come parte di Defender per i servizi di intelligenza artificiale non è garantita quando diventa disponibile a livello generale e i requisiti di licenza possono cambiare. In tal caso, verrà inviata una notifica prima che la funzionalità venga disabilitata con le opzioni per riabilitarla con la licenza applicabile.
Man mano che le organizzazioni usano sempre più modelli di intelligenza artificiale per favorire l'automazione, le informazioni dettagliate e il processo decisionale intelligente, i team di sicurezza necessitano di visibilità e controllo per valutare la sicurezza e la conformità dei modelli di intelligenza artificiale che entrano negli ambienti. Questi modelli hanno spesso accesso ampio ai dati e all'infrastruttura. Senza queste funzionalità, diventa sempre più difficile applicare standard interni.
Microsoft Defender per il cloud: Defender per la sicurezza dell'IA supporta la scansione dei modelli di intelligenza artificiale. L'analisi dei modelli di intelligenza artificiale offre il rilevamento proattivo di artefatti non sicuri o dannosi e monitora continuamente i modelli per il rischio durante il ciclo di vita dell'intelligenza artificiale.
La sicurezza del modello di intelligenza artificiale analizza automaticamente i modelli di intelligenza artificiale per individuare rischi per la sicurezza, ad esempio malware incorporato, operatori non sicuri e segreti esposti prima che questi modelli raggiungano la produzione. Integrato direttamente con pipeline di Azure Machine Learning e CI/CD, il servizio presenta risultati in tempo reale e linee guida per la correzione pratica, in modo che i team possano arrestare i modelli rischiosi all'inizio del processo di sviluppo.
Usando la sicurezza del modello di intelligenza artificiale, i team di sicurezza possono analizzare modelli di intelligenza artificiale personalizzati caricati in aree di lavoro e registri Azure Machine Learning per identificare minacce come malware incorporato, operatori non sicuri e segreti esposti. Defender per il cloud presenta i risultati, offrendo ai team visibilità sui risultati della sicurezza insieme a valutazioni di gravità, indicazioni sulla correzione e metadati del modello pertinenti per supportare la valutazione e la definizione delle priorità efficaci. Gli sviluppatori possono anche attivare analisi dei modelli durante fasi di compilazione o rilascio usando gli strumenti dell'interfaccia della riga di comando integrati con pipeline Azure DevOps o GitHub, abilitando l'analisi statica e il rilevamento dei rischi precoce prima che i modelli raggiungano la produzione.
Prerequisiti
- È necessario avere una sottoscrizione Azure che contiene modelli di intelligenza artificiale registrati in registri o aree di lavoro Azure Machine Learning (Azure Machine Learning).
Annotazioni
Le aree di lavoro e i registri che usano un collegamento privato non sono supportati.
Abilita il piano di gestione della postura di sicurezza per Defender per il cloud.
È necessario abilitare la protezione dalle minacce per i servizi di intelligenza artificiale e il componente di sicurezza del modello di intelligenza artificiale del piano.
Autorizzazioni necessarie: per abilitare il piano, è necessario Owner o Contributor autorizzazioni di livello delle risorse Azure Machine Learning.
Formati di file del modello supportati:
Pickle (.pkl),HDF5 (.h5)TorchScript (.pt),ONNX (.onnx),SafeTensors (.safetensors),TensorFlow SavedModel / TFLite (FlatBuffers)NumPy (.npy),Arrow, MsgPack, dill, joblib.PMML, JSON, POJO, MOJO, GGUFLimite di dimensioni del file: 10 GB. I file modello di dimensioni superiori a 10 GB non possono essere analizzati.
L'analisi viene eseguita una volta alla settimana.
Individuare tutti i modelli di intelligenza artificiale nell'ambiente
Accedere al portale Azure.
Cercare e selezionare Microsoft Defender per il cloud.
Selezionare Cloud Security Explorer.
Selezionare AI & Mls>AI models.
Selezionare Fine.
Seleziona +.
Selezionare Metadati>Metadati del modello di IA.
Seleziona Cerca.
Cloud Security Explorer visualizza tutti i modelli di intelligenza artificiale nell'ambiente in uso. È possibile selezionare Visualizza dettagli per visualizzare altre informazioni su ogni modello selezionato.
Individuare i modelli di intelligenza artificiale con rilievi di sicurezza
Usare Cloud Security Explorer per trovare modelli di intelligenza artificiale con risultati di sicurezza attivi.
Seguire i passaggi da 1 a 7 nella sezione Individuare tutti i modelli di intelligenza artificiale nell'ambiente .
Seleziona +.
Selezionare Raccomandazioni>Tutte le raccomandazioni.
Seleziona Cerca.
Cloud Security Explorer visualizza tutti i modelli di intelligenza artificiale nell'ambiente in cui sono presenti risultati di sicurezza attivi. Selezionare Visualizza dettagli per visualizzare altre informazioni su ogni modello e sui risultati associati.
Individuare tutti i modelli di intelligenza artificiale nell'ambiente
La pagina Defender portal Assets offre una visualizzazione completa di tutti i modelli di intelligenza artificiale nell'ambiente in uso.
Accedere al portale Microsoft Defender.
Passare a Assets>Cloud>AI>Modelli AI.
Selezionare un modello di intelligenza artificiale con raccomandazioni.
Selezionare Apri la pagina delle risorse.
Selezionare Raccomandazioni di sicurezza> la raccomandazione pertinente.
Esaminare e correggere l'individuazione di sicurezza secondo necessità.
È anche possibile gestire la raccomandazione nel portale di Azure.