Condividi tramite


Sicurezza del modello di intelligenza artificiale

Importante

Questa funzionalità è attualmente in anteprima e inclusa nel piano di Microsoft Defender per i servizi di intelligenza artificiale. Durante l'anteprima non sono previsti costi aggiuntivi per l'analisi del modello di intelligenza artificiale. Tuttavia, l'abilitazione del piano di Defender per i servizi di intelligenza artificiale può comportare costi correlati alle funzionalità di protezione dalle minacce. L'inclusione continua della funzionalità di analisi dei modelli di intelligenza artificiale come parte di Defender per i servizi di intelligenza artificiale non è garantita quando diventa disponibile a livello generale e i requisiti di licenza possono cambiare. In tal caso, verrà inviata una notifica prima che la funzionalità venga disabilitata con le opzioni per riabilitarla con la licenza applicabile.

Man mano che le organizzazioni usano sempre più modelli di intelligenza artificiale per favorire l'automazione, le informazioni dettagliate e il processo decisionale intelligente, i team di sicurezza necessitano di visibilità e controllo per valutare la sicurezza e la conformità dei modelli di intelligenza artificiale che entrano negli ambienti. Questi modelli hanno spesso accesso ampio ai dati e all'infrastruttura. Senza queste funzionalità, diventa sempre più difficile applicare standard interni.

Microsoft Defender per il cloud: Defender per la sicurezza dell'IA supporta la scansione dei modelli di intelligenza artificiale. L'analisi dei modelli di intelligenza artificiale offre il rilevamento proattivo di artefatti non sicuri o dannosi e monitora continuamente i modelli per il rischio durante il ciclo di vita dell'intelligenza artificiale.

La sicurezza del modello di intelligenza artificiale analizza automaticamente i modelli di intelligenza artificiale per individuare rischi per la sicurezza, ad esempio malware incorporato, operatori non sicuri e segreti esposti prima che questi modelli raggiungano la produzione. Integrato direttamente con pipeline di Azure Machine Learning e CI/CD, il servizio presenta risultati in tempo reale e linee guida per la correzione pratica, in modo che i team possano arrestare i modelli rischiosi all'inizio del processo di sviluppo.

Usando la sicurezza del modello di intelligenza artificiale, i team di sicurezza possono analizzare modelli di intelligenza artificiale personalizzati caricati in aree di lavoro e registri Azure Machine Learning per identificare minacce come malware incorporato, operatori non sicuri e segreti esposti. Defender per il cloud presenta i risultati, offrendo ai team visibilità sui risultati della sicurezza insieme a valutazioni di gravità, indicazioni sulla correzione e metadati del modello pertinenti per supportare la valutazione e la definizione delle priorità efficaci. Gli sviluppatori possono anche attivare analisi dei modelli durante fasi di compilazione o rilascio usando gli strumenti dell'interfaccia della riga di comando integrati con pipeline Azure DevOps o GitHub, abilitando l'analisi statica e il rilevamento dei rischi precoce prima che i modelli raggiungano la produzione.

Prerequisiti

  • È necessario avere una sottoscrizione Azure che contiene modelli di intelligenza artificiale registrati in registri o aree di lavoro Azure Machine Learning (Azure Machine Learning).

Annotazioni

Le aree di lavoro e i registri che usano un collegamento privato non sono supportati.

Individuare tutti i modelli di intelligenza artificiale nell'ambiente

  1. Accedere al portale Azure.

  2. Cercare e selezionare Microsoft Defender per il cloud.

  3. Selezionare Cloud Security Explorer.

  4. Selezionare AI & Mls>AI models.

    Screenshot che mostra dove selezionare i modelli di intelligenza artificiale dall'elenco a discesa in Cloud Security Explorer.

  5. Selezionare Fine.

  6. Seleziona +.

  7. Selezionare Metadati>Metadati del modello di IA.

    Screenshot che mostra come selezionare l'opzione

  8. Seleziona Cerca.

Cloud Security Explorer visualizza tutti i modelli di intelligenza artificiale nell'ambiente in uso. È possibile selezionare Visualizza dettagli per visualizzare altre informazioni su ogni modello selezionato.

Individuare i modelli di intelligenza artificiale con rilievi di sicurezza

Usare Cloud Security Explorer per trovare modelli di intelligenza artificiale con risultati di sicurezza attivi.

  1. Seguire i passaggi da 1 a 7 nella sezione Individuare tutti i modelli di intelligenza artificiale nell'ambiente .

  2. Seleziona +.

  3. Selezionare Raccomandazioni>Tutte le raccomandazioni.

    Screenshot che mostra come selezionare l'opzione

  4. Seleziona Cerca.

Cloud Security Explorer visualizza tutti i modelli di intelligenza artificiale nell'ambiente in cui sono presenti risultati di sicurezza attivi. Selezionare Visualizza dettagli per visualizzare altre informazioni su ogni modello e sui risultati associati.

Individuare tutti i modelli di intelligenza artificiale nell'ambiente

La pagina Defender portal Assets offre una visualizzazione completa di tutti i modelli di intelligenza artificiale nell'ambiente in uso.

  1. Accedere al portale Microsoft Defender.

  2. Passare a Assets>Cloud>AI>Modelli AI.

    Screenshot che illustra come navigare verso la pagina delle risorse del portale Defender con tutti i modelli di intelligenza artificiale presentati.

  3. Selezionare un modello di intelligenza artificiale con raccomandazioni.

    Screenshot che mostra i modelli IA con almeno una raccomandazione che li riguarda.

  4. Selezionare Apri la pagina delle risorse.

    Screenshot che mostra dove si trova il pulsante

  5. Selezionare Raccomandazioni di sicurezza> la raccomandazione pertinente.

  6. Esaminare e correggere l'individuazione di sicurezza secondo necessità.

È anche possibile gestire la raccomandazione nel portale di Azure.

Passo successivo