まとめ
このモジュールでは、セマンティック モデルが大規模なデータセット、より多くの同時実行ユーザー、およびより広範な消費パターンをMicrosoft Fabricで処理する必要がある場合の変更点について説明しました。 課題は明確でした。Power BI Desktop の小規模なチーム向けに構築されたモデルでは、スケールに付属するものは自動的に処理されません。
4 つの重要な設計上の決定を行う方法を学習しました。 最初に、既定のストレージ モードとして Direct Lake を選択し、Import、DirectQuery、または複合モデルの方が適切な選択肢であることを理解しました。 次に、参照整合性、非アクティブなリレーションシップ、ソース間接続など、明確さとパフォーマンスのためにスター スキーマリレーションシップを設計しました。 次に、計算グループを使用してスケーラブルな計算を設計し、測定の急増、変数、名前付け規則を減らし、チームの保守容易性をサポートし、大量のデータを処理するための集計をサポートしました。 最後に、モデルが大規模なデータセット、同時実行クエリ、および外部ツール アクセスを処理する方法を制御する設定を構成しました。
これらの決定を組み合わせることで、スケールのためのセマンティック モデルが準備されます。 また、AI は、現在のデータ、明確なリレーションシップ、説明的な構造、容量など、スケーリングするモデルと同じものを必要とするため、AI の使用に備えます。
詳細を表示
- Direct Lake の概要
Power BI - 大規模なセマンティック モデルのストレージ形式