Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
O editor no-code facilita o desenvolvimento de um trabalho de Stream Analytics para processar os seus dados de streaming em tempo real. Use a funcionalidade de arrastar e largar sem escrever qualquer código. A experiência oferece uma tela onde pode ligar-se às fontes de entrada para ver rapidamente os seus dados em streaming. Então você pode transformá-lo antes de escrever para seus destinos.
Ao usar o editor no-code, pode facilmente:
- Modifique esquemas de entrada.
- Execute operações de preparação de dados, como junções e filtros.
- Aborde cenários avançados, como agregações de janela de tempo (tombamento, salto e janelas de sessão) para operações por grupo.
Depois de criar e executar seus trabalhos do Stream Analytics, você pode operacionalizar facilmente as cargas de trabalho de produção. Use o conjunto certo de métricas internas para fins de monitoramento e solução de problemas. Os trabalhos do Stream Analytics são cobrados de acordo com o modelo de preços quando são executados.
Pré-requisitos
Antes de desenvolver as suas tarefas de Stream Analytics usando o editor sem código, certifique-se de que cumpre estes requisitos:
- As fontes de entrada de streaming e os recursos de destino para o trabalho do Stream Analytics devem estar acessíveis publicamente e não podem estar em uma rede virtual Azure.
- Você deve ter as permissões necessárias para acessar os recursos de entrada e saída de streaming.
- Você deve manter permissões para criar e modificar recursos do Azure Stream Analytics.
Nota
O editor no-code não está atualmente disponível na região da China.
Tarefa do Azure Stream Analytics
Um trabalho do Stream Analytics é baseado em três componentes principais: entradas, transformações e saídas de streaming. Podes incluir tantos componentes quanto quiseres, como múltiplas entradas, ramificações paralelas com múltiplas transformações e múltiplas saídas. Para obter mais informações, consulte a documentação do Azure Stream Analytics.
Nota
As seguintes funcionalidades e tipos de saída não estão disponíveis quando usa o editor no-code:
- Funções definidas pelo utilizador.
- Edição de consultas na página de consultas do Azure Stream Analytics. No entanto, pode visualizar a consulta gerada pelo editor sem código na página da consulta.
- Adicionar entradas e saídas nas páginas de entrada e saída do Azure Stream Analytics. No entanto, pode ver as entradas e saídas geradas pelo editor no-code na página de entrada e saída.
- Os seguintes tipos de saída não estão disponíveis: Azure Function, Azure Data Lake Storage Gen1, PostgreSQL DB, Service Bus queue/topic, Table storage.
Para aceder ao editor no-code para construir o seu trabalho de análise de fluxos, utilize uma das seguintes abordagens:
Através do portal do Azure Stream Analytics (pré-visualização): crie um trabalho do Stream Analytics e, em seguida, selecione o editor sem código no separador Introdução na página Descrição geral ou selecione Editor sem código no painel esquerdo.
Através do portal dos Hubs de Eventos do Azure: abra uma instância dos Hubs de Eventos. Selecione Processar dados e, em seguida, selecione qualquer modelo predefinido.
Os modelos pré-definidos podem ajudá-lo a desenvolver e executar um trabalho para abordar vários cenários, incluindo:
- Capturar dados de Hubs de Eventos no formato Delta Lake (visualização)
- Filtrando e ingerindo no Azure Synapse SQL
- Capturando seus dados de Hubs de Eventos no formato Parquet no Azure Data Lake Storage Gen2
- Materializando dados no Azure Cosmos DB
- Filtrar e importar no Azure Data Lake Storage Gen2
- Enriqueça dados e ingra para hub de eventos
- Transformar e armazenar dados no banco de dados SQL do Azure
- Filtrar e ingerir no Azure Data Explorer
A captura de tela a seguir mostra um trabalho concluído do Stream Analytics. Ele destaca todas as seções disponíveis para você como autor.
- Friso: No friso, as secções seguem a ordem de um processo de análise tradicional: um hub de eventos como entrada de dados (também conhecido como fonte de dados), transformações (operações de streaming Extrair, Transformar e Carregar, ou ETL), saídas, um botão para guardar o progresso e um botão para iniciar a tarefa.
- Vista de diagrama: Esta vista é uma representação gráfica do seu trabalho de Stream Analytics, desde a entrada às operações e às saídas.
- Painel lateral: Dependendo do componente que selecionas na vista do diagrama, vês definições para modificar entrada, transformação ou saída.
- Guias para visualização de dados, erros de criação, logs de tempo de execução e métricas: para cada bloco, a visualização de dados mostra os resultados dessa etapa (ao vivo para entradas; sob demanda para transformações e saídas). Esta seção também resume quaisquer erros de criação ou avisos que você possa ter em seu trabalho quando ele estiver sendo desenvolvido. Selecionar cada erro ou aviso seleciona essa transformação. Ele também fornece as métricas da tarefa para o utilizador monitorar a integridade da tarefa em execução.
Entrada de dados de streaming
O editor no-code suporta a entrada de dados de streaming de três tipos de recursos:
- Hubs de Eventos do Azure
- Hub IoT do Azure
- Azure Data Lake Storage Gen2
Para obter mais informações sobre as entradas de dados de streaming, consulte Transmitir dados como entrada no Stream Analytics.
Nota
O editor sem código no portal de Hubs de Eventos do Azure só tem o Hub de Eventos como uma opção de entrada.
Hubs de Eventos do Azure como entrada de streaming
Os Hubs de Eventos do Azure são uma plataforma de streaming de big data e um serviço de ingestão de eventos. Pode receber e processar milhões de eventos por segundo. Pode transformar e armazenar dados enviados para um hub de eventos por meio de qualquer provedor de análise em tempo real ou adaptador de armazenamento e processamento em lote.
Para configurar um hub de eventos como uma entrada para seu trabalho, selecione o ícone Hub de Eventos . Um bloco aparece na exibição de diagrama, incluindo um painel lateral para sua configuração e conexão.
Quando se liga ao seu hub de eventos no editor no-code, crie um novo grupo de consumidores (que é a opção predefinida). Esta abordagem ajuda a impedir que o hub de eventos atinja o limite de leitores concorrentes. Para entender mais sobre grupos de consumidores e se você deve selecionar um grupo de consumidores existente ou criar um novo, consulte Grupos de consumidores.
Se o hub de eventos estiver na camada Básica, você poderá usar apenas o grupo de consumidores $Default existente. Se o hub de eventos estiver em uma camada Standard ou Premium, você poderá criar um novo grupo de consumidores.
Quando se liga ao hub de eventos, se selecionar Identidade Gerida como modo de autenticação, a função de Proprietário de Dados do Hubs de Eventos do Azure é atribuída à identidade gerida para o trabalho de Stream Analytics. Para saber mais sobre identidades gerenciadas para um hub de eventos, consulte Usar identidades gerenciadas para acessar um hub de eventos a partir de um trabalho do Azure Stream Analytics.
As identidades gerenciadas eliminam as limitações dos métodos de autenticação baseados no usuário. Essas limitações incluem a necessidade de autenticar novamente devido a alterações de senha ou expirações de token de usuário que ocorrem a cada 90 dias.
Depois de configurar os detalhes do hub de eventos e selecionar Conectar, você pode adicionar campos manualmente usando + Adicionar campo se souber os nomes dos campos. Para detetar campos e tipos de dados automaticamente com base em uma amostra das mensagens recebidas, selecione Detetar campos automaticamente. Selecionar o símbolo de engrenagem permite editar as credenciais, se necessário.
Quando os trabalhos do Stream Analytics detetam os campos, você os vê na lista. Você também vê uma pré-visualização ao vivo das mensagens recebidas na tabela de Pré-visualização de Dados na vista de diagrama.
Modificar dados de entrada
Pode editar os nomes dos campos, remover campos, alterar o tipo de dado ou alterar a hora do evento (marcar como hora do evento: cláusula TIMESTAMP BY se for um campo do tipo data-hora) selecionando o símbolo de três pontos ao lado de cada campo. Você também pode expandir, selecionar e editar quaisquer campos aninhados das mensagens recebidas, conforme mostrado na imagem a seguir.
Gorjeta
Este processo aplica-se também aos dados de entrada do Hub IoT do Azure e do Azure Data Lake Storage Gen2.
Os tipos de dados disponíveis são:
- DateTime: Campo de data e hora em formato ISO.
- Float: Número decimal.
- Int: Número inteiro.
- Registro: objeto aninhado com vários registros.
- String: Texto.
Hub IoT do Azure como entrada de streaming
O Hub IoT do Azure é um serviço gerenciado hospedado na nuvem que atua como um hub de mensagens central para comunicação entre um aplicativo IoT e seus dispositivos conectados. Pode usar dados de dispositivos IoT enviados para o hub IoT como entrada para um trabalho de Análise de Fluxos.
Nota
Pode usar a entrada do Hub IoT do Azure no editor sem código no portal Azure Stream Analytics.
Para adicionar um hub IoT como entrada de streaming para o seu trabalho, selecione Hub IoT em Entradas na faixa de opções. Em seguida, preencha as informações necessárias no painel direito para conectar o hub IoT ao seu trabalho. Para saber mais sobre os detalhes de cada campo, consulte Transmitir dados do Hub IoT para a tarefa do Stream Analytics.
Azure Data Lake Storage Gen2 como entrada de streaming
O Azure Data Lake Storage Gen2 (ADLS Gen2) é uma solução de data lake empresarial baseada na nuvem. Ele foi projetado para armazenar grandes quantidades de dados em qualquer formato e para facilitar cargas de trabalho analíticas de big data. O Stream Analytics pode processar os dados armazenados no ADLS Gen2 como um fluxo de dados. Para saber mais sobre este tipo de entrada, consulte Fluxo de dados de ADLS Gen2 para tarefa do Stream Analytics.
Nota
Pode usar a entrada do Azure Data Lake Storage Gen2 no editor de código zero do portal Azure Stream Analytics.
Para adicionar um ADLS Gen2 como entrada de streaming para seu trabalho, selecione o ADLS Gen2 em Entradas na faixa de opções. Em seguida, preencha as informações necessárias no painel direito para conectar o ADLS Gen2 ao seu trabalho. Para saber mais sobre os detalhes de cada campo, consulte Transmissão de dados do ADLS Gen2 para trabalhos no Stream Analytics.
Entradas de dados de referência
Os dados de referência são estáticos ou mudam lentamente ao longo do tempo. Normalmente, usa-o para enriquecer fluxos de dados recebidos e fazer consultas no seu trabalho. Por exemplo, você pode unir a entrada de fluxo de dados aos dados de referência, da mesma forma que executaria uma junção SQL para pesquisar valores estáticos. Para obter mais informações sobre entradas de dados de referência, consulte Usar dados de referência para pesquisas no Stream Analytics.
O editor no-code agora suporta duas fontes de dados de referência:
- Azure Data Lake Storage Gen2
- Base de Dados SQL do Azure
Azure Data Lake Storage Gen2 como dados de referência
Organize os dados de referência do modelo como uma sequência de blobs na ordem crescente da combinação de data e hora especificada no nome do blob. Só pode adicionar blobs ao final da sequência usando uma data e hora maiores do que aquelas especificadas pelo último blob na sequência. Defina blobs na configuração de entrada.
Primeiro, na secção de Inputs do ribbon, selecione Referência ADLS Gen2. Para ver detalhes sobre cada campo, consulte a seção sobre o Armazenamento de Blobs do Azure em Usar dados de referência para pesquisas no Stream Analytics.
Em seguida, carregue um arquivo de matriz JSON. O sistema deteta os campos. Utilize estes dados de referência para executar a transformação com dados de entrada em fluxo contínuo dos Hubs de Eventos.
Banco de Dados SQL do Azure como dados de referência
Você pode usar o Banco de Dados SQL do Azure como dados de referência para seu trabalho do Stream Analytics no editor sem código. Para obter mais informações, consulte a seção sobre o Banco de dados SQL em Usar dados de referência para pesquisas no Stream Analytics.
Para configurar a Base de Dados SQL como entrada de dados de referência, selecione Base de Dados SQL de Referência na faixa de opções sob a secção Entradas. Em seguida, preencha as informações para conectar seu banco de dados de referência e selecione a tabela com as colunas necessárias. Você também pode buscar os dados de referência da tabela editando a consulta SQL manualmente.
Transformações
As transformações de dados de streaming são inerentemente diferentes das transformações de dados em lote. Quase todos os dados de streaming têm um componente de tempo, que afeta todas as tarefas de preparação de dados envolvidas.
Para adicionar uma transformação de dados de streaming ao seu trabalho, selecione o símbolo de transformação na seção Operações na faixa de opções. O respetivo mosaico é adicionado à vista do diagrama. Depois de o selecionares, vês o painel lateral dessa transformação para a configurar.
Filtro
Use a transformação Filter para filtrar eventos com base no valor de um campo na entrada. Dependendo do tipo de dados (número ou texto), a transformação mantém os valores que correspondem à condição selecionada.
Nota
Dentro de cada azulejo, vê-se informação sobre o que mais a transformação precisa para estar pronta. Por exemplo, quando adicionas um novo bloco, vês uma mensagem de Configuração necessária . Se lhe faltar um conector de nodo, verá uma mensagem Erro ou uma mensagem Aviso.
Gerir campos
A transformação Gerenciar campos permite adicionar, remover ou renomear campos provenientes de uma entrada ou outra transformação. As definições no painel lateral dão-te a opção de adicionar um novo campo selecionando Adicionar campo ou adicionar todos os campos de uma vez.
Também pode adicionar um novo campo usando as Funções Incorporadas para agregar os dados de origem superior. Atualmente, as funções incorporadas suportadas são algumas funções em Funções de String, Funções de Data e Hora, e Funções Matemáticas. Para saber mais sobre as definições dessas funções, consulte Funções internas (Azure Stream Analytics).
Gorjeta
Depois de configurar um mosaico, a visualização do diagrama dá-lhe um vislumbre das definições dentro do mosaico. Por exemplo, na área Gerenciar campos da imagem anterior, você pode ver os três primeiros campos sendo gerenciados e os novos nomes atribuídos a eles. Cada bloco tem informações relevantes para ele.
Agregação
Use a transformação Agregada para calcular uma agregação (Soma, Mínimo, Máximo ou Média) sempre que um novo evento ocorrer durante um período de tempo. Essa operação também permite filtrar ou fatiar a agregação com base em outras dimensões em seus dados. Pode incluir uma ou mais agregações na mesma transformação.
Para adicionar uma agregação, selecione o símbolo de transformação. Depois, conecte uma entrada, selecione a agregação, adicione quaisquer dimensões de filtro ou corte, e escolha o período de tempo durante o qual a agregação é calculada. Neste exemplo, está a calcular-se a soma do valor da portagem pelo estado de origem do veículo nos últimos 10 segundos.
Para adicionar outra agregação à mesma transformação, selecione Adicionar função de agregação. O filtro ou fatia aplica-se a todas as agregações na transformação.
Participar
Use a transformação Join para combinar eventos de duas entradas com base nos pares de campos selecionados. Se você não selecionar um par de campos, a associação será baseada no tempo por padrão. O padrão é o que torna esta transformação diferente de um processamento em lote.
Tal como acontece com as junções regulares, tem opções para a sua lógica de adesão:
- Junção interna: inclua apenas registros de ambas as tabelas em que o par corresponde. Neste exemplo, é aí que a placa corresponde às duas entradas.
- Junção externa esquerda: inclua todos os registros da tabela esquerda (primeira) e apenas os registros da segunda tabela que correspondam ao par de campos. Se não houver correspondência, os campos da segunda entrada ficarão em branco.
Para selecionar o tipo de associação, selecione o símbolo do tipo preferido no painel lateral.
Por fim, selecione o período durante o qual quer que a junção seja calculada. Neste exemplo, a junção examina os últimos 10 segundos. Quanto maior for o período, menos frequente é a saída e mais recursos de processamento utilizas para a transformação.
Por defeito, a saída inclui todos os campos de ambas as tabelas. Prefixos à esquerda (primeiro nó) e à direita (segundo nó) ajudam a diferenciar a fonte.
Agrupar por
Utilize a transformação Agrupar por para calcular agregações para todos os eventos numa determinada janela temporal. Você pode agrupar pelos valores em um ou mais campos. É como a transformação Aggregate mas fornece mais opções para agregações. Também inclui opções mais complexas para janelas de tempo. Também como o Agregado, você pode adicionar mais de uma agregação por transformação.
As agregações disponíveis na transformação são:
- Média
- Contagem
- Máximo
- Mínimo
- Percentil (contínuo e discreto)
- Desvio padrão
- Sum
- Variância
Para configurar a transformação:
- Selecione a sua agregação preferida.
- Selecione o campo no qual deseja agregar.
- Selecione um campo opcional de agrupamento por se quiser obter o cálculo agregado em relação a outra dimensão ou categoria. Por exemplo: Estado.
- Selecione a sua função para intervalos de tempo.
Para adicionar outra agregação à mesma transformação, selecione Adicionar função de agregação. Tenha em mente que o campo Agrupar por e a função de janelamento se aplicam a todas as agregações na transformação.
Um timestamp para o final da janela de tempo aparece como parte do resultado da transformação para referência. Para obter mais informações sobre as janelas de tempo suportadas pelos trabalhos do Stream Analytics, consulte Funções de janela (Azure Stream Analytics).
União
Use a transformação Union para ligar duas ou mais entradas. Adicione eventos que tenham campos partilhados (com o mesmo nome e tipo de dado) numa única tabela. A saída exclui campos que não correspondem.
Expandir matriz
Use a transformação Expandir matriz para criar uma nova linha para cada valor dentro de uma matriz.
Saídas de streaming
A experiência de arrastar e soltar sem código atualmente suporta vários coletores de saída para armazenar seus dados processados em tempo real.
Azure Data Lake Storage Gen2
O Data Lake Storage Gen2 torna o Armazenamento do Azure a base para a criação de data lakes corporativos no Azure. É projetado para atender a vários petabytes de informações, mantendo uma taxa de transferência de centenas de gigabits. Ele permite que você gerencie facilmente grandes quantidades de dados. O Armazenamento de Blobs do Azure oferece uma solução econômica e escalável para armazenar grandes quantidades de dados não estruturados na nuvem.
Na seção Saídas na faixa de opções, selecione ADLS Gen2 como a saída para o seu trabalho do Stream Analytics. Em seguida, selecione o contêiner para onde deseja enviar a saída do trabalho. Para obter mais informações sobre a saída do Azure Data Lake Gen2 para um trabalho do Stream Analytics, consulte Armazenamento de Blob e saída do Azure Data Lake Gen2 do Azure Stream Analytics.
Quando se conecta ao Azure Data Lake Storage Gen2, se selecionar Identidade Gerida como modo de autenticação, então o papel de Contribuidor de Dados do Blob de Armazenamento é atribuído à identidade gerida para a tarefa de Análise de Fluxo. Para saber mais sobre identidades geridas para o Azure Data Lake Storage Gen2, consulte Usar identidades geridas para autenticar o seu trabalho do Azure Stream Analytics no Armazenamento de Blobs do Azure.
As identidades gerenciadas eliminam as limitações dos métodos de autenticação baseados no usuário. Essas limitações incluem a necessidade de autenticar novamente devido a alterações de senha ou expirações de token de usuário que ocorrem a cada 90 dias.
Entrega exatamente uma vez (pré-visualização) é suportada no ADLS Gen2 sem necessidade de saída do editor de código. Você pode ativá-lo na seção Modo de gravação na configuração do ADLS Gen2. Para mais informações sobre esta funcionalidade, veja Entrega exatamente uma vez (pré-visualização) em Azure Data Lake Gen2.
A escrita na tabela Delta Lake (em pré-visualização) é suportada no ADLS Gen2 como uma solução de saída sem necessidade de codificação. Você pode acessar essa opção na seção Serialização na configuração do ADLS Gen2. Para obter mais informações sobre este recurso, consulte Gravar na tabela Delta Lake.
Azure Synapse Analytics
Os trabalhos do Azure Stream Analytics podem enviar saída para uma tabela de pool SQL dedicada no Azure Synapse Analytics e podem processar taxas de transferência de até 200 MB por segundo. O Stream Analytics suporta as necessidades mais exigentes de análise em tempo real e processamento de dados de caminho ativo para cargas de trabalho, como relatórios e painéis.
Importante
A tabela de pool SQL dedicada deve existir antes que você possa adicioná-la como saída ao seu trabalho do Stream Analytics. O esquema da tabela deve corresponder aos campos e seus tipos na saída do trabalho.
Na secção Saídas na faixa de opções, selecione Synapse como saída para o seu trabalho de Stream Analytics. Em seguida, selecione a tabela de pool SQL para onde você deseja enviar a saída do trabalho. Para obter mais informações sobre a saída do Azure Synapse para um trabalho do Stream Analytics, consulte Saída do Azure Synapse Analytics do Azure Stream Analytics.
Azure Cosmos DB
O Azure Cosmos DB é um serviço de banco de dados distribuído globalmente que oferece escala elástica ilimitada em todo o mundo. Ele também oferece consultas avançadas e indexação automática em modelos de dados independentes de esquema.
Na seção Saídas na barra de ferramentas, selecione CosmosDB como a saída para o seu trabalho do Stream Analytics. Para obter mais informações sobre a saída do Azure Cosmos DB para um trabalho do Stream Analytics, consulte Saída do Azure Cosmos DB do Azure Stream Analytics.
Quando se liga à Azure Cosmos DB, se selecionar Identidade Gerida como modo de autenticação, o papel de Contribuidor é concedido à identidade gerida para o trabalho de Stream Analytics. Para saber mais sobre identidades gerenciadas para o Azure Cosmos DB, consulte Usar identidades gerenciadas para acessar o Azure Cosmos DB a partir de um trabalho do Azure Stream Analytics (visualização).
A saída do Azure Cosmos DB no editor sem código também suporta o método de autenticação de identidades geridas de forma autónoma. Este método oferece os mesmos benefícios que na saída ADLS Gen2.
Base de Dados SQL do Azure
Base de Dados SQL do Azure é um motor de base de dados totalmente gerido como plataforma como serviço (PaaS) que ajuda a criar uma camada de armazenamento de dados altamente disponível e de alto desempenho para aplicações e soluções em Azure. Usando o editor sem código, você pode configurar trabalhos do Azure Stream Analytics para gravar os dados processados em uma tabela existente no Banco de Dados SQL.
Para configurar o Banco de Dados SQL do Azure como saída, selecione Banco de Dados SQL na secção Saídas da faixa de opções. Depois, introduza a informação necessária para se ligar à sua base de dados SQL e selecione a tabela onde quer escrever dados.
Importante
A tabela do Banco de Dados SQL do Azure deve existir antes que você possa adicioná-la como saída ao seu trabalho do Stream Analytics. O esquema da tabela deve corresponder aos campos e seus tipos na saída do trabalho.
Para obter mais informações sobre a saída do Banco de Dados SQL do Azure para um trabalho do Stream Analytics, consulte Saída do Banco de Dados SQL do Azure do Azure Stream Analytics.
Hubs de Eventos
Com dados em tempo real a serem enviados para a ASA, o editor no-code pode transformar e enriquecer os dados, e depois enviar os dados para outro hub de eventos. Você pode escolher os Hubs de Eventos como saída ao configurar o seu trabalho do Azure Stream Analytics.
Para configurar os Event Hubs como saída, selecione Event Hub na secção Outputs na fita. Depois, introduza a informação necessária para se ligar ao seu hub de eventos onde quer escrever dados.
Para obter mais informações sobre a saída de Hubs de Eventos para um trabalho do Stream Analytics, consulte Saída de Hubs de Eventos do Azure Stream Analytics.
Azure Data Explorer
O Azure Data Explorer é uma plataforma de análise de big data totalmente gerenciada e de alto desempenho que facilita a análise de grandes volumes de dados. Também podes usar Azure Data Explorer como saída para o teu trabalho de Azure Stream Analytics usando o editor no-code.
Para configurar Azure Data Explorer como saída, selecione Azure Data Explorer na secção Outputs na fita. Depois, introduza a informação necessária para se ligar à sua base de dados Azure Data Explorer e especifique a tabela onde pretende escrever os dados.
Importante
A tabela deve existir no banco de dados selecionado e o esquema da tabela deve corresponder exatamente aos campos e seus tipos na saída do trabalho.
Para obter mais informações sobre a saída do Azure Data Explorer para um trabalho do Stream Analytics, consulte Saída do Azure Data Explorer do Azure Stream Analytics (Visualização).
Power BI
O Power BI oferece uma experiência de visualização abrangente para o resultado da análise de dados. Ao usar a saída do Power BI no Stream Analytics, os dados processados em streaming são escritos num conjunto de dados de streaming do Power BI, e em seguida, pode utilizá-los para construir o dashboard quase em tempo real do Power BI.
Para configurar Power BI como saída, selecione Power BI na secção Outputs na fita. Depois, introduza a informação necessária para se ligar ao seu espaço de trabalho do Power BI e forneça os nomes do conjunto de dados e da tabela de streaming onde pretende escrever os dados. Para saber mais sobre os detalhes de cada campo, consulte Saída do Power BI do Azure Stream Analytics.
Visualização de dados, erros de configuração, logs de tempo de execução e métricas
A experiência de arrastar e soltar sem código fornece ferramentas para ajudá-lo a criar, solucionar problemas e avaliar o desempenho do seu pipeline de análise para streaming de dados.
Visualização de dados em tempo real para entradas
Quando se liga a uma fonte de entrada, como um hub de eventos, e seleciona o seu tile na vista do diagrama (o separador Pré-visualização de Dados ), vê uma pré-visualização em tempo real dos dados recebidos se todas as seguintes condições forem verdadeiras:
- Os dados estão sendo enviados.
- A entrada está configurada corretamente.
- São adicionados campos.
Como mostrado na captura de tela a seguir, se você quiser ver ou detalhar algo específico, você pode pausar a visualização (1). Ou pode começá-lo novamente quando acabar.
Também pode ver os detalhes de um registo específico, uma célula na tabela, selecionando-a e, em seguida, selecionando Mostrar/Ocultar detalhes (2). A captura de tela mostra a exibição detalhada de um objeto aninhado em um registro.
Pré-visualização estática para transformações e saídas
Depois de adicionar e configurar quaisquer etapas na exibição de diagrama, você pode testar seu comportamento selecionando Obter visualização estática.
Quando selecionas o botão, o trabalho de Stream Analytics avalia todas as transformações e saídas para garantir que estão configuradas corretamente. Em seguida, o Stream Analytics exibe os resultados na visualização de dados estáticos, conforme mostrado na imagem a seguir.
Você pode atualizar a visualização selecionando Atualizar visualização estática (1). Quando você atualiza a visualização, o trabalho do Stream Analytics obtém novos dados da entrada e avalia todas as transformações. Em seguida, ele envia a saída novamente com quaisquer atualizações que você possa ter executado. A opção Mostrar/Ocultar detalhes também está disponível (2).
Erros de criação
Se tiver algum erro ou aviso de autoria, o separador Erros de autoria lista-os, como mostrado na captura de ecrã seguinte. A lista inclui detalhes sobre o erro ou aviso, o tipo de cartão (entrada, transformação ou saída), o nível de erro e uma descrição do erro ou aviso.
Logs de tempo de execução
Os logs de execução surgem nos níveis de aviso, erro ou informação quando uma tarefa está a ser executada. Esses logs são úteis quando você deseja editar a topologia ou a configuração do trabalho do Stream Analytics para solução de problemas. Ative os registos de diagnóstico e envie-os para o espaço de trabalho do Log Analytics em Definições para obter mais informações sobre os seus trabalhos em execução para depuração.
No exemplo seguinte de captura de ecrã, o utilizador configura a saída da base de dados SQL com um esquema de tabela que não corresponde aos campos da saída do trabalho.
Métricas
Se o trabalho estiver em execução, poderá monitorizar o estado do seu trabalho no separador Métricas. As quatro métricas mostradas por defeito são Atraso na marca d'água, Eventos de entrada, Eventos de entrada em atraso e Eventos de saída. Utilize estas métricas para entender se os eventos fluem para dentro e para fora do trabalho sem qualquer fila de espera na entrada.
Você pode selecionar mais métricas na lista. Para entender todas as métricas em detalhes, consulte Métricas de trabalho do Azure Stream Analytics.
Iniciar uma tarefa do Stream Analytics
Você pode salvar o trabalho a qualquer momento durante a sua criação. Depois de configurar as entradas, transformações e saídas de streaming para o trabalho, você pode iniciá-lo.
Nota
Embora o editor sem código no portal do Azure Stream Analytics esteja em visualização, o serviço Azure Stream Analytics está disponível em geral.
Você pode configurar estas opções:
-
Hora de início da saída: Quando inicia um trabalho, selecione um momento para o trabalho começar a gerar saída.
- Agora: Esta opção torna o ponto de partida do fluxo de eventos de saída igual ao início do trabalho.
- Personalizado: Escolha o ponto de partida da saída.
- Quando interrompido pela última vez: esta opção está disponível quando o trabalho foi iniciado anteriormente, mas foi interrompido manualmente ou falhou. Quando escolhes esta opção, o último tempo de saída é usado para reiniciar o trabalho, por isso não se perde dados.
- Unidades de streaming: as unidades de streaming (SUs) representam a quantidade de computação e memória atribuída ao trabalho enquanto ele está em execução. Se não tiveres a certeza de quantos SUs escolher, começa com três e ajusta conforme necessário.
- Tratamento de erros de dados de saída: as políticas para tratamento de erros de dados de saída aplicam-se somente quando o evento de saída produzido por um trabalho do Stream Analytics não está em conformidade com o esquema do coletor de destino. Configure a política escolhendo Repetir ou Descartar. Para obter mais informações, consulte Política de erro de saída do Azure Stream Analytics.
- Iniciar: este botão inicia o trabalho do Stream Analytics.
Lista de tarefas do Stream Analytics no portal dos Hubs de Eventos do Azure
Para ver uma lista de todos os trabalhos do Stream Analytics que você criou usando a experiência de arrastar e soltar sem código no portal dos Hubs de Eventos do Azure, selecione Processar dados>trabalhos do Stream Analytics.
Aqui estão os elementos do separador de tarefas do Stream Analytics:
- Filtrar: Filtrar a lista por nome do trabalho.
- Atualizar: atualmente, a lista não se atualiza automaticamente. Use o botão Atualizar para atualizar a lista e ver o status mais recente.
- Nome do trabalho: O nome nesta área é aquele que fornece na primeira etapa da criação do trabalho. Não é possível editá-lo. Selecione o nome do trabalho para abri-lo na experiência de arrastar e soltar sem código, onde você pode parar o trabalho, editá-lo e iniciá-lo novamente.
- Status: Esta área mostra o status do trabalho. Selecione Atualizar na parte superior da lista para ver o status mais recente.
- Unidades de streaming: Esta área mostra o número de unidades de streaming que seleciona quando inicia o trabalho.
- Marca de água de saída: Esta área fornece um indicador de vivacidade para os dados que o trabalho produz. Todos os eventos anteriores ao carimbo de data/hora já foram computados.
- Monitoramento de trabalho: selecione Abrir métricas para ver as métricas relacionadas a esse trabalho do Stream Analytics. Para obter mais informações sobre as métricas que você pode usar para monitorar seu trabalho do Stream Analytics, consulte Métricas de trabalho do Azure Stream Analytics.
- Operações: Iniciar, parar ou excluir o trabalho.
Próximos passos
Saiba como usar o editor sem código para abordar cenários comuns usando modelos predefinidos: