Del via


Brug Git-integrations- og udrulningspipelines til miljøer

Når du konfigurerer et miljø i Fabric-portalen — tilføjer biblioteker, vælger en Spark-runtime, justerer compute-indstillinger — findes disse valg kun i Fabric-tjenesten. Hvis nogen ved et uheld ændrer en indstilling, eller du skal genskabe miljøet i et andet arbejdsområde, er der ingen indbygget historik at falde tilbage på.

Git-integration og implementeringspipelines løser dette problem. Ved at forbinde dit arbejdsområde til et Git-repo får du versionshistorik, branching og kodegennemgang for din miljøkonfiguration, ligesom du ville gøre med applikationskode. Deployment pipelines lader dig derefter promovere et testet miljø på tværs af stadier (for eksempel fra udvikling til test til produktion) uden manuelt at genskabe det.

Integrer Git til Fabric-miljøer

Git-integration lader dig tage backup, versionere og samarbejde om din miljøkonfiguration via Git-grene. Når du forbinder et arbejdsområde til et Git-repo, serialiserer Fabric miljøets biblioteker og Spark-beregningsindstillinger (inklusive Spark-runtime) til filer, som Git kan spore. Andre miljøkomponenter er ikke inkluderet i Git på nuværende tidspunkt.

Ændringer, du laver i Git, synkroniseres til miljøets staging-tilstand — de træder først i kraft, når du publicerer. Publicér efter hver Git-synkronisering for at sikre, at det live miljø afspejler dine ændringer. Hvis du foretrækker en kode-først arbejdsgang, kan du publicere via Environment Publish API.

Husk følgende overvejelser:

  • Brugerdefinerede poolreferencer — Når du synkroniserer et miljø fra et repo til et andet arbejdsområde, bevares det vedhæftede custom pool-ID as-is. Fordi pooldefinitioner er workspace-scoped, løses krydsarbejdsområde-referencer ikke. Opdater instance_pool_id i den synkroniserede fil til en eksisterende pool i destinationsarbejdsområdet, eller fjern egenskaben for at vende tilbage til en startpool. Du kan liste tilgængelige puljer med List Workspace Custom Pools API eller oprette en med Create Workspace Custom Pool API.
  • Grænse for commit-størrelse — Hver commit er begrænset til 150 MB. Brugerdefinerede biblioteker større end 150 MB kan ikke committes via Git.

Opret forbindelse mellem Fabric-arbejdsområdet og et Azure DevOps-lager

Hvis du er administrator af et arbejdsområde, skal du gå til Indstillinger for arbejdsområde og konfigurere forbindelsen i afsnittet Kildekontrolelement . Du kan få mere at vide under Administrer et arbejdsområde med Git.

Når du har oprettet forbindelse, kan du finde elementer, herunder de miljøer, der synkroniseres med lageret.

Skærmbillede, der viser, at arbejdsområdet kan oprettes forbindelse til et Azure DevOps-lager.

Lokal repræsentation af et miljø i Git

I elementets rodmappe er miljøer organiseret med en biblioteksmappe , der indeholder undermapperne PublicLibraries og CustomLibraries sammen med mappen Indstillinger .

Skærmbillede, der viser den lokale repræsentation af miljøet i Git.

Biblioteker

Når du bekræfter et miljø til Git, transformeres den offentlige bibliotekssektion til dens YAML-repræsentation. Det brugerdefinerede bibliotek er også forpligtet sammen med dets kildefil.

Skærmbillede, der viser det offentlige biblioteks lokale repræsentation af miljøet i Git.

Du kan opdatere det offentlige bibliotek ved at redigere YAML-repræsentationen. Ligesom portaloplevelsen kan du angive et bibliotek fra PyPI og Conda. Du kan angive biblioteket med den forventede version, et versionsområde eller uden en version. Systemet kan hjælpe dig med at finde en version, der er kompatibel med andre afhængigheder i dit miljø. Hvis du vil rydde alle eksisterende offentlige biblioteker, skal du slette YAML-filen.

Du kan opdatere det brugerdefinerede bibliotek ved at tilføje nye filer eller slette eksisterende filer direkte.

Bemærk

Du kan medbringe din egen YAML-fil for at administrere det offentlige bibliotek. Filnavnet skal environment.yml , så systemet kan genkende det korrekt.

Spark-beregning

Spark-beregningssektionen transformeres også til YAML-repræsentationen. I denne YAML-fil kan du skifte den tilknyttede gruppe, finjustere beregningskonfigurationer, administrere Spark-egenskaber og vælge den ønskede Spark-kørsel.

Skærmbillede, der viser den lokale repræsentation af Spark-beregning af miljøet i Git.

Konfigurere en udrulningspipeline for et miljø

Vigtigt

Denne funktion er en prøveversion.

Pipelines til udrulning af infrastruktur forenkler processen med at levere ændret indhold på tværs af forskellige faser, f.eks. fra udvikling til test. Den automatiske pipeline kan inkludere miljøelementer for at effektivisere gengivelsesprocessen.

Du kan konfigurere en udrulningspipeline ved at tildele arbejdsområderne med forskellige faser. Du kan få flere oplysninger under Introduktion til udrulningspipelines.

Skærmbillede, der viser udrulning af et miljø i en udrulningspipeline.

Du kan finde udrulningsstatus, efter du har sat pipelinen op med succes. Når du har valgt Installér med det valgte miljø, installeres alt indhold i miljøet til destinationsarbejdsområderne. Status for det oprindelige miljø bevares i denne proces, så de publicerede konfigurationer forbliver i publiceret tilstand og ikke kræver ekstra publicering.

Vigtigt

I øjeblikket understøttes den brugerdefinerede gruppe ikke i udrulningspipelines. Hvis miljøet vælger den brugerdefinerede gruppe, angives konfigurationerne af beregningssektionen i destinationsmiljøet med standardværdier. I dette tilfælde bliver miljøerne ved med at vise forskelle i udrulningspipelinen, selvom udrulningen er udført.