Del via


Hvad er Dataflow Gen2?

Dataflows er et cloud-baseret værktøj, der hjælper dig med at forberede og transformere data uden at skrive kode. De giver en grænseflade med lav kode til indtagelse af data fra hundredvis af datakilder, transformering af dine data ved hjælp af mere end 300 datatransformationer og indlæsning af de resulterende data til flere destinationer. Tænk på dem som din personlige dataassistent, der kan oprette forbindelse til hundredvis af forskellige datakilder, rydde op i rodede data og levere dem præcis der, hvor du har brug for dem. Uanset om du er borger eller professionel udvikler, giver dataflows dig en moderne dataintegrationsoplevelse til at indlæse, forberede og transformere data fra et rigt sæt datakilder, herunder databaser, data warehouse, Lakehouse, realtidsdata og mere.

Dataflow Gen2 er den nyere, mere kraftfulde version, der fungerer sammen med den oprindelige Power BI Dataflow (nu kaldet Gen1). Bygget med den velkendte Power Query-oplevelse, som findes på flere Microsoft produkter og tjenester såsom Excel, Power BI, Power Platform og Dynamics 365, tilbyder Dataflow Gen2 forbedrede funktioner, bedre ydeevne og hurtige kopieringsmuligheder for hurtigt at indlæse og Transformér data. Hvis du starter forfra, anbefaler vi Dataflow Gen2 for de forbedrede funktioner og bedre ydeevne.

Vigtigt!

Fra april 2026 er muligheden for at oprette nye Dataflow Gen2-elementer uden CI/CD- og Git-integrationsunderstøttelse (tidligere kendt som Dataflow Gen2 Classic) ikke længere tilgængelig. Alle nye Dataflow Gen2-elementer oprettes nu som standard med CI/CD- og Git-integrationsunderstøttelse. Eksisterende Dataflow Gen2-elementer uden CI/CD-understøttelse fungerer fortsat som forventet. For at konvertere et eksisterende klassisk dataflow, brug funktionen Gem som.

Hvad kan du gøre med dataflow?

Med dataflow kan du:

  • Opret forbindelse til dine data: Hent oplysninger fra databaser, filer, webtjenester og meget mere. Du kan også genoprette forbindelsen til nyligt brugte kilder.
  • Transformér dine data: Rens, filtrer, kombiner og omform dine data ved hjælp af en visuel grænseflade.
  • Indlæs data hvor som helst: Send dine transformerede data til databaser, datalagre eller cloud-storage.
  • Automatiser processen: Konfigurer tidsplaner, så dine data forbliver opdaterede og up-to-date.

Funktioner til dataflow

Her er de funktioner, der er tilgængelige mellem Dataflow Gen2 og Gen1:

Feature Dataflow Gen2 Dataflow Gen1
Opret dataflows med Power Query
Enklere oprettelsesproces
Automatisk lagring og udgivelse i baggrunden
Flere outputdestinationer
Bedre overvågning og opdateringssporing
Virker med pipelines
Højtydende databehandling
Opret forbindelse via dataflow-stikket
Direkte forespørgsel via dataflowconnectoren
Opdater kun ændrede data
AI-drevet indsigt
Nylige datagenveje til tidligere brugte kilder

Opgraderinger til Dataflow Gen2

I de næste afsnit er nogle af de vigtigste forbedringer i Dataflow Gen2 sammenlignet med Gen1 for at gøre dine dataforberedelsesopgaver nemmere og mere effektive.

Gen2 er nemmere at oprette og bruge

Dataflow Gen2 føles bekendt, hvis du har brugt Power Query før. Vi har strømlinet processen for at få dig i gang hurtigere. Du får trinvis vejledning, når du henter data ind i dit dataflow, og vi har reduceret antallet af trin, der er nødvendige for at oprette dine dataflow.

Skærmbillede af den overordnede oprettelsesoplevelse i dataflow.

Gem automatisk, så dit arbejde er sikkert

Dine ændringer gemmes automatisk, når du arbejder i Dataflow Gen2. Du kan træde væk fra din computer, lukke din browser eller miste internetforbindelsen uden at bekymre dig om at miste dine fremskridt. Når du kommer tilbage, er alt lige der, hvor du efterlod det.

Når du er færdig med at oprette dit dataflow, kan du publicere dine ændringer. Publicering gemmer dit arbejde og kører baggrundsvalideringer, så du ikke behøver at vente på, at alt tjekkes ud, før du går videre til din næste opgave.

Hvis du vil vide mere om, hvordan lagring fungerer, skal du se Gem en kladde af dit dataflow.

Send data, uanset hvor du har brug for det

Mens Dataflow Gen1 gemmer transformerede data i sin egen interne storage (som du kan access via Dataflow-connectoren), giver Dataflow Gen2 dig fleksibiliteten til at bruge den storage eller sende dine data til forskellige destinationer.

Denne fleksibilitet åbner op for nye muligheder. Du kan f.eks.:

  • Brug et dataflow til at indlæse data i et lakehouse og derefter analysere dem med en notesbog
  • Indlæs data i en Azure SQL-database, og brug derefter en pipeline til at flytte dem til et datalager

Dataflow Gen2 understøtter i øjeblikket disse destinationer:

  • Azure SQL databases
  • Azure Data Explorer (Kusto)
  • Azure Datalake Gen2
  • Fabric Lakehouse-borde
  • Fabric Lakehouse Arkiver
  • Fabric Warehouse
  • Fabric KQL-database
  • Fabric SQL-database
  • SharePoint-filer
  • Snowflake-database

Skærmbillede med de understøttede datadestinationer vist.

Du kan få flere oplysninger om de tilgængelige datadestinationer under Dataflow Gen2-datadestinationer og administrerede indstillinger.

Bedre overvågning og opdateringssporing

Dataflow Gen2 giver dig et tydeligere billede af, hvad der sker med dine dataopdateringer. Vi har integreret med Monitoring Hub og forbedret oplevelsen Opdateringshistorik , så du kan spore status og ydeevne for dine dataflow.

Skærmbillede, der viser detaljerne for en opdateringsstatus.

Fungerer problemfrit med pipelines

Pipelines lader dig gruppere aktiviteter sammen for at løse større opgaver. Tænk på dem som arbejdsgange, der kan kopiere data, køre SQL-forespørgsler, udføre lagrede procedurer eller køre Python-notebooks.

Du kan oprette forbindelse mellem flere aktiviteter i en pipeline og indstille den til at køre efter en tidsplan. For eksempel kan du hver mandag bruge en pipeline til at hente data fra en Azure-blob og rydde op, og derefter aktivere en Dataflow Gen2 til at analysere logdataene. Eller i slutningen af måneden kan du kopiere data fra en Azure-blob til en Azure SQL-database og derefter køre en lagret procedure på den database.

Skærmbillede, der viser integrationen med pipelines.

For at lære mere om at forbinde dataflows med pipelines, se dataflow-aktiviteter.

Højtydende databehandling

Dataflow Gen2 bruger avancerede compute Fabric SQL Compute-motorer til effektivt at håndtere store mængder data. For at få dette til at fungere opretter Dataflow Gen2 både Lakehouse- og Warehouse-elementer i dit arbejdsområde og bruger dem til at lagre og access data, hvilket forbedrer ydeevnen for alle dine dataflows.

Find og genbrug nyere datakilder

Dataflow Gen2 inkluderer et nylig datamodul , der registrerer elementer, du tidligere har brugt – såsom tabeller, filer, mapper, databaser og ark – og lader dig indlæse dem direkte i Dataflow Gen2-redigeringslærredet. Du kan få adgang til Seneste data fra Power Query-båndet eller fra Modern Get Data-oplevelsen, så du hurtigt kan komme tilbage til de data, du har brug for, uden at skulle omkonfigurere dine forbindelser.

Fra enhver nylig dataindtastning kan du også vælge Gennemse placering for at udforske og vælge yderligere relaterede elementer i samme mappe eller database, hvilket gør det nemt at arbejde med flere ressourcer på samme sted.

Copilot for Dataflow Gen2

Dataflow Gen2 integreres med Microsoft Copilot in Fabric for at levere AI-drevet assistance til at skabe dataintegrationsløsninger ved brug af naturlige sprogprompts. Copilot hjælper dig med at strømline din dataflowudviklingsproces ved at lade dig bruge samtalesprog til at udføre datatransformationer og operationer.

  • Hent data fra kilder: Brug startprompten "Hent data fra" til at oprette forbindelse til forskellige datakilder, f.eks. OData, databaser og filer
  • Transformér data med naturligt sprog: Anvend transformationer ved hjælp af samtaleprompter, f.eks.:
    • "Behold kun europæiske kunder"
    • "Tæl det samlede antal medarbejdere efter By"
    • "Behold kun ordrer, hvis antal er over middelværdien"
  • Skab eksempeldata: Brug Azure OpenAI til at generere prøvedata til test og udvikling
  • Fortryd handlinger: Skriv eller vælg "Fortryd" for at fjerne det sidst anvendte trin
  • Valider og gennemgå: Hver Copilot handling vises som et svarkort med tilsvarende trin i listen over anvendte trin

For mere information, se Copilot for Dataflow Gen2.

Hvad skal du bruge for at bruge dataflow?

Dataflow Gen2 kræver en Fabric-kapacitet, en Fabric-prøvekapacitet eller en Power BI Premium-kapacitet. For at forstå, hvordan licensering fungerer for dataflows, kan du tjekke Microsoft Fabric concepts and licenses.

Flytning fra Dataflow Gen1 til Gen2

Hvis du allerede har dataflow, der er bygget med Gen1, skal du ikke bekymre dig – du kan nemt overføre dem til Gen2. Vi har flere muligheder for at hjælpe dig med at skifte:

Eksportér og importér dine forespørgsler

Du kan eksportere dine Dataflow Gen1-forespørgsler og gemme dem i en PQT-fil og derefter importere dem til Dataflow Gen2. Du kan finde en trinvis vejledning under Brug funktionen eksportskabelon.

Kopier og indsæt i Power Query

Hvis du har et dataflow i Power BI eller Power Apps, kan du kopiere dine forespørgsler og indsætte dem i Dataflow Gen2-editoren. Med denne fremgangsmåde kan du migrere uden at skulle genopbygge dine forespørgsler fra bunden. Få mere at vide: Kopiér og indsæt eksisterende Dataflow Gen1-forespørgsler.

Brug funktionen Gem som

Hvis du allerede har en form for dataflow (Gen1 eller Gen2), inkluderer Data Factory en funktion 'Save As'. Dette lader dig gemme enhver eksisterende dataflow som et nyt Dataflow Gen2-element med CI/CD- og Git-integrationsunderstøttelse i blot én handling. Flere detaljer: Migrer til Dataflow Gen2 ved hjælp af Save As.

Iscenesættelse af elementer i dit arbejdsområde

I nogle oplevelser kan du se systemgenererede elementer som DataflowsStagingLakehouse eller DataflowsStagingWarehouse i dit arbejdsområde. Disse er interne staging-elementer, der bruges af Dataflow Gen2 og er ikke beregnet til direkte interaktion. Du kan trygt se bort fra dem.

Er du klar til at lære mere? Se disse nyttige ressourcer: