Condividi tramite


Scegliere la soluzione di intelligenza artificiale Windows

Il panorama dell'IA Windows è cresciuto rapidamente e la terminologia può essere difficile da esplorare. Questa pagina semplifica le cose: trova il tuo scenario, scegli il punto di partenza.

Options

  • Modelli di intelligenza artificiale e API da usare : modelli distribuiti e gestiti da Microsoft; codice minimo, senza competenze di Machine Learning necessarie.
    • Windows AI APIs - LLM (Phi Silica), modelli di imaging, OCR, ricerca semantica e altro ancora. Copilot+ PC obbligatorio.
    • Foundry Local — 20+ LLMs open source e modelli di riconoscimento vocale tramite un'API compatibile con OpenAI. Qualsiasi hardware Windows.
  • Eseguire qualsiasi modello in locale : usare un modello ONNX personalizzato con il controllo completo sulla pipeline di inferenza.
    • Windows ML - Inferenza con accelerazione hardware su CPU, GPU o NPU. Qualsiasi tipo di hardware Windows.
  • Altro
    • Microsoft Foundry — Modelli di frontiera ospitati nel cloud (GPT-4o, DALL-E e così via) tramite l'API REST. Combinare con Foundry Local per il fallback su dispositivo/cloud.

Decodificatore della terminologia

Lo spazio di intelligenza artificiale Windows ha subito una rapida ridenominazione. Ecco una tabella di traduzione per i termini che è possibile riscontrare:

Termine che hai visto Cosa significa ora
API di runtime Copilot Nome precedente (2024) per Windows AI APIs. Stessa funzionalità, rinominata.
Windows Copilot Runtime Termine generico precedente (2024) per le funzionalità di intelligenza artificiale ora denominato Microsoft Foundry on Windows.
Windows AI Foundry Termine generico precedente (2025) per le funzionalità di intelligenza artificiale ora denominato Microsoft Foundry on Windows.
Microsoft Foundry on Windows Marchio ombrello attuale che copre Windows AI APIs + Foundry Local + Windows ML.
Microsoft Foundry Microsoft piattaforma di intelligenza artificiale basata sul cloud. Prodotto diverso, team diverso, nome simile.
Phi Silica Il modello specifico Phi ottimizzato per Windows e integrato nei PC Copilot+. Accesso tramite Windows AI APIs.
Phi (generale) La famiglia di modelli linguistici piccoli di Microsoft. Phi-4-mini ecc. sono disponibili su Azure IA e tramite Foundry Local. Phi Silica è la versione della posta in arrivo ottimizzata per la Windows NPU.
Windows ML (vecchio) API di inferenza legacy basata su WinRT, inclusa nativamente da Windows 10 versione 1809. Ancora funziona; nessun nuovo investimento.
Windows ML (nuovo) Nuovo pacchetto NuGet basato sul runtime ONNX. Attuale e attivamente sviluppato.
DirectML Non è più in fase di sviluppo attivo (in ingegneria sostenuta). API DirectX 12 ML di basso livello per l'accelerazione GPU/NPU.
Windows ML provider d'esecuzione specifici per IHV La sostituzione di DirectML, ottenendo prestazioni più elevate lavorando in modo nativo con hardware Windows.
Copilot+ PC Categoria PC definita dall'hardware: NPU con 40+ TOPS, 16 GB+ RAM, soC specifici. Obbligatorio per Windows AI APIs; non obbligatorio per Foundry Local o Windows ML.
NPU Unità di elaborazione neurale: hardware dedicato per l'accelerazione dell'intelligenza artificiale nei PC Copilot+. Windows AI APIs l'inferenza del percorso attraverso la NPU viene eseguita automaticamente.

Combinare le opzioni nella stessa app

Queste opzioni non si escludono a vicenda. Modello tipico per una funzionalità di intelligenza artificiale resiliente:

// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
    var deploymentResult = await LanguageModel.EnsureReadyAsync();
    if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
    {
        readyState = LanguageModel.GetReadyState();
    }
    else
    {
        // Optional: inspect deploymentResult.ExtendedError for diagnostics.
        // Treat as unavailable so we fall through to Foundry/Azure.
        readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
    }
}

if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
    // Use Phi Silica via Windows AI APIs
    using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
    // Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
    // Use Azure OpenAI
}

Questo modello offre agli utenti Copilot+ l'esperienza migliore mantenendo la funzionalità funzionante su tutti gli hardware.

Ancora incerto?