Del via


Indstillinger for Spark-beregningskonfiguration i Fabric-miljøer

Microsoft Fabric Data Engineering- og Data Science-oplevelser fungerer på en fuldt administreret Spark-beregningsplatform. Som standard deler alle Spark-jobs i et arbejdsområde de samme pool- og ressourceindstillinger, men forskellige arbejdsbelastninger har ofte forskellige krav. En letvægts datatransformation behøver ikke samme driverhukommelse som et storskala maskinlæringsjob.

Fabric-miljøer lader dig tilpasse Spark-beregningskonfiguration pr. arbejdsbyrde, så hver notebook- eller Spark-jobdefinition kan køre med den rette runtime-version, pool og driver/executor-størrelse uden at ændre arbejdsområde-standardindstillinger.

Konfigurer arbejdsområde-niveau compute-indstillinger

Workspace-administratorer styrer, om miljøelementer kan tilsidesætte arbejdsområdets standardkonfiguration. Hvis du holder tilpasning på elementniveau deaktiveret, sikrer du ensartet ressourceforbrug i hele arbejdsområdet. At aktivere det giver medlemmer og bidragydere fleksibilitet til at tune compute til individuelle arbejdsbelastninger.

  1. I din browser skal du gå til dit Fabric-arbejdsområde i Fabric-portalen.

  2. Vælg indstillinger for arbejdsområde.

  3. Vælg Data Engineering/Science, og vælg derefter Spark-indstillinger.

  4. Vælg fanen Pool .

  5. Slå tilpas-konfigurationer for genstande til Tændt.

    Skærmbillede, der viser muligheden for tilpasning af beregning på item-niveau i arbejdsområdets indstillinger.

    Når denne toggle er slået til, kan medlemmer og bidragydere ændre sessionsniveau-beregningskonfigurationer i et Fabric-miljø. Når den er slået fra, er Compute-sektionen i miljøobjekter deaktiveret, og alle Spark-jobs bruger arbejdsområdets standardpool.

  6. Vælg Save.

Konfigurer beregning i et miljø

Når en workspace-administrator aktiverer tilpasning på item-niveau, kan du konfigurere compute-indstillinger inde i et miljøobjekt. Dette inkluderer valg af en Spark-runtime, valg af en pool og justering af driver- og executor-ressourcer.

Vælg en Spark-runtime

  1. Åbn dit miljøobjekt.

  2. På fanen Hjem skal du vælge rullemenuen Runtime og vælge en runtime-version.

    Skærmbillede, der viser, hvordan du vælger kørselsversionen for miljøet.

Hver Spark-runtime har sine egne standardindstillinger og forudinstallerede pakker.

Vigtigt!

  • Ændringer i runtime træder først i kraft, når du gemmer og offentliggør miljøet.
  • Hvis eksisterende biblioteker eller compute-indstillinger ikke er kompatible med den valgte runtime, fejler publiceringen. Fjern eller opdater de inkompatible indstillinger, og publicér så igen.
  • For trin-for-trin publiceringsinstruktioner, se Save and publish changes.

Vælg en pulje og juster beregningsegenskaberne

  1. Åbn miljøet og gå til Compute-sektionen .

  2. Under Environment pool vælger du startpoolen eller en brugerdefineret pool oprettet af din workspace-administrator.

    Skærmbillede, der viser, hvor du kan vælge puljer i sektionen Miljøberegning.

  3. Brug dropdown-menuerne på Compute-siden til at konfigurere sessionsniveau Spark-egenskaber for den valgte pool. Tilgængelige værdier afhænger af poolens nodestørrelse.

    Skærmbillede, der viser dropdown-menuerne for beregningsegenskaber i miljøets beregningssektion.

    Ejendomme omfatter:

    • Spark-driverkerner – Antal kerner tildelt Spark-driveren.
    • Spark-driverhukommelse – Mængden af hukommelse, der er tildelt Spark-driveren.
    • Spark-eksekveringkerner – Antal kerner tildelt hver eksekver.
    • Spark executor-hukommelse – Mængden af hukommelse, der tildeles hver eksekver.

For detaljer om tilgængelige poolstørrelser og ressourcebegrænsninger, se Spark compute in Fabric.

Bemærkning

Spark-egenskaber sat gennem spark.conf.set kontrolapplikationsniveau-parametre og er ikke relateret til de miljøberegningsindstillinger, der er beskrevet her.