Del via


Data Factory fra slutpunkt til slutpunkt-scenarie: introduktion og arkitektur

Denne vejledning guider dig gennem et komplet dataintegrationsscenarie på cirka en time. Du vil lære de vigtigste funktioner i Data Factory i Microsoft Fabric og hvordan du anvender dem på almindelige dataarbejdsgange.

Hvad du vil bygge

Denne vejledning indeholder en introduktion og tre moduler:

Data Factory i Microsoft Fabric

Microsoft Fabric er en samlet analyseplatform, der dækker databevægelse, data lakes, data engineering, dataintegration, data science, realtidsanalyse og business intelligence. Du behøver ikke at samle tjenester fra flere leverandører.

Data Factory i Fabric kombinerer brugervenligheden fra Power Query med skalaen Azure Data Factory. Det tilbyder low-code, AI-drevet dataforberedelse, petabyte-skala transformation og hundredvis af connectors med hybrid- og multicloud-forbindelse.

Vigtige funktioner

Data Factory tilbyder tre kernefunktioner til dine dataintegrationsbehov:

  • Dataindlæsning med kopijob: Et kopijob er det anbefalede udgangspunkt for dataindlæsning. Det flytter petabyte-skala data fra hundredvis af datakilder ind i din Lakehouse, med native understøttelse af bulk-, inkrementelle og CDC-baserede kopier – uden at skulle bygge en pipeline.
  • Datatransformation: Dataflow Gen2 tilbyder en low-code grænseflade til at transformere dine data med 300+ transformationer. Du kan indlæse resultater til flere destinationer som Azure SQL Database, Lakehouse og flere.
  • End-to-end automatisering: Pipelines orkestrerer aktiviteter som kopieringsjob, dataflow, notesbog og mere. Kæde aktiviteter sammen for at køre sekventielt eller parallelt. Overvåg hele din dataintegrationsstrøm ét sted.

Selvstudiearkitektur

Du vil udforske alle tre nøglefunktioner, mens du gennemfører et end-to-end dataintegrationsscenarie.

Scenariet indeholder tre moduler:

  1. Indtag data med et Copy-job: Opret et selvstændigt Copy-job til at indlæse rådata fra Blob-lagring i en bronzetabel i et Lakehouse.
  2. Transformér data med en dataflow: Behandl rådataene fra din bronzetabel og flyt dem til en guldtabel .
  3. Orkestrér og automatiser med en pipeline: Opret en pipeline til at orkestrere kopijobbet og dataflowet, send en e-mailnotifikation og planlæg hele flowet.

Diagram, der viser dataflowet og modulerne, der dækkes i denne tutorial.

Denne vejledning bruger NYC-Taxi eksempeldatasættet. Når du er færdig, kan du analysere daglige rabatter på taxapriser for en bestemt tidsperiode ved hjælp af Data Factory i Microsoft Fabric.

Næste trin