Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Il panorama dell'IA Windows è cresciuto rapidamente e la terminologia può essere difficile da esplorare. Questa pagina semplifica le cose: trova il tuo scenario, scegli il punto di partenza.
Options
-
Modelli di intelligenza artificiale e API da usare : modelli distribuiti e gestiti da Microsoft; codice minimo, senza competenze di Machine Learning necessarie.
- Windows AI APIs - LLM (Phi Silica), modelli di imaging, OCR, ricerca semantica e altro ancora. Copilot+ PC obbligatorio.
- Foundry Local — 20+ LLMs open source e modelli di riconoscimento vocale tramite un'API compatibile con OpenAI. Qualsiasi hardware Windows.
-
Eseguire qualsiasi modello in locale : usare un modello ONNX personalizzato con il controllo completo sulla pipeline di inferenza.
- Windows ML - Inferenza con accelerazione hardware su CPU, GPU o NPU. Qualsiasi tipo di hardware Windows.
-
Altro
- Microsoft Foundry — Modelli di frontiera ospitati nel cloud (GPT-4o, DALL-E e così via) tramite l'API REST. Combinare con Foundry Local per il fallback su dispositivo/cloud.
Decodificatore della terminologia
Lo spazio di intelligenza artificiale Windows ha subito una rapida ridenominazione. Ecco una tabella di traduzione per i termini che è possibile riscontrare:
| Termine che hai visto | Cosa significa ora |
|---|---|
| API di runtime Copilot | Nome precedente (2024) per Windows AI APIs. Stessa funzionalità, rinominata. |
| Windows Copilot Runtime | Termine generico precedente (2024) per le funzionalità di intelligenza artificiale ora denominato Microsoft Foundry on Windows. |
| Windows AI Foundry | Termine generico precedente (2025) per le funzionalità di intelligenza artificiale ora denominato Microsoft Foundry on Windows. |
| Microsoft Foundry on Windows | Marchio ombrello attuale che copre Windows AI APIs + Foundry Local + Windows ML. |
| Microsoft Foundry | Microsoft piattaforma di intelligenza artificiale basata sul cloud. Prodotto diverso, team diverso, nome simile. |
| Phi Silica | Il modello specifico Phi ottimizzato per Windows e integrato nei PC Copilot+. Accesso tramite Windows AI APIs. |
| Phi (generale) | La famiglia di modelli linguistici piccoli di Microsoft. Phi-4-mini ecc. sono disponibili su Azure IA e tramite Foundry Local. Phi Silica è la versione della posta in arrivo ottimizzata per la Windows NPU. |
| Windows ML (vecchio) | API di inferenza legacy basata su WinRT, inclusa nativamente da Windows 10 versione 1809. Ancora funziona; nessun nuovo investimento. |
| Windows ML (nuovo) | Nuovo pacchetto NuGet basato sul runtime ONNX. Attuale e attivamente sviluppato. |
| DirectML | Non è più in fase di sviluppo attivo (in ingegneria sostenuta). API DirectX 12 ML di basso livello per l'accelerazione GPU/NPU. |
| Windows ML provider d'esecuzione specifici per IHV | La sostituzione di DirectML, ottenendo prestazioni più elevate lavorando in modo nativo con hardware Windows. |
| Copilot+ PC | Categoria PC definita dall'hardware: NPU con 40+ TOPS, 16 GB+ RAM, soC specifici. Obbligatorio per Windows AI APIs; non obbligatorio per Foundry Local o Windows ML. |
| NPU | Unità di elaborazione neurale: hardware dedicato per l'accelerazione dell'intelligenza artificiale nei PC Copilot+. Windows AI APIs l'inferenza del percorso attraverso la NPU viene eseguita automaticamente. |
Combinare le opzioni nella stessa app
Queste opzioni non si escludono a vicenda. Modello tipico per una funzionalità di intelligenza artificiale resiliente:
// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
var deploymentResult = await LanguageModel.EnsureReadyAsync();
if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
{
readyState = LanguageModel.GetReadyState();
}
else
{
// Optional: inspect deploymentResult.ExtendedError for diagnostics.
// Treat as unavailable so we fall through to Foundry/Azure.
readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
}
}
if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
// Use Phi Silica via Windows AI APIs
using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
// Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
// Use Azure OpenAI
}
Questo modello offre agli utenti Copilot+ l'esperienza migliore mantenendo la funzionalità funzionante su tutti gli hardware.
Ancora incerto?
- panoramica di Microsoft Foundry on Windows - vista completa della piattaforma
- AI Dev Gallery : esplorare gli esempi funzionanti per ogni API
- Stack Overflow: tag windows-ai