• /
  • EnglishEspañol日本語한국어Português
  • EntrarComeçar agora

Esta tradução de máquina é fornecida para sua comodidade.

Caso haja alguma divergência entre a versão em inglês e a traduzida, a versão em inglês prevalece. Acesse esta página para mais informações.

Criar um problema

Integração de monitoramento Google Cloud Dataflow

A integração da New Relic inclui uma integração para relatar seus dados do GCP Dataflow para nossos produtos. Aqui explicamos como ativar a integração e quais dados ela coleta.

Ativar integração

Para ativar a integração, siga os procedimentos padrão para conectar seu serviço GCP ao New Relic.

Configuração e polling

Você pode alterar a frequência de pesquisa e filtrar dados usando opções de configuração.

Informações de pesquisa padrão para a integração do GCP Dataflow:

  • Intervalo de sondagem New Relic : 5 minutos

Encontre e use dados

Para encontrar seus dados de integração, acesse one.newrelic.com > All capabilities > Infrastructure > GCP e selecione uma integração.

Os dados são anexados ao seguinte tipo de evento:

Entidade

Tipo de evento

Fornecedor

Trabalho

GcpDataflowJobSample

GcpDataflowJob

Para saber mais sobre como usar seus dados, consulte Compreender e usar dados de integração.

Dados métricos

Esta integração coleta dados do GCP Dataflow para o trabalho.

Dados do job do Dataflow

Métrica

Unidade

Descrição

job.BillableShuffleDataProcessed

Bytes

Os bytes faturáveis de dados aleatórios processados por este job do Dataflow.

job.CurrentNumVcpus

Contar

O número de vCPUs usadas atualmente por este job do Dataflow. Este é o número atual de trabalhadores vezes o número de vCPUs por trabalhador.

job.CurrentShuffleSlots

Contar

Os slots de embaralhamento atuais usados por este job do Dataflow.

job.DataWatermarkAge

Segundos

A idade (tempo desde o evento timestamp) até a qual todos os dados foram processados pelo pipeline.

job.ElapsedTime

Segundos

Duração em que a execução atual deste pipeline esteve no estado Em execução até o momento, em segundos. Quando uma execução é concluída, a duração dessa execução permanece até o início da próxima execução.

job.Elements

Contar

Número de elementos adicionados à pcollection até agora.

job.EstimatedBytes

Bytes

Um número estimado de bytes adicionados à pcollection até agora. O Dataflow calcula o tamanho médio codificado dos elementos em uma pcollection e o multiplica pelo número de elementos.

job.IsFailed

Contar

Este trabalho falhou.

job.PerStageDataWatermarkAge

Segundos

A idade (tempo desde o evento timestamp) até a qual todos os dados foram processados por este estágio do pipeline.

job.PerStageSystemLag

Segundos

A duração máxima atual que um item de dados está processando ou aguardando processamento em segundos, por estágio do pipeline.

job.SystemLag

Segundos

A duração máxima atual que um item de dados está processando ou aguardando processamento, em segundos.

job.TotalMemoryUsageTime

Outro

O total de GB de segundos de memória alocados para este job do Dataflow.

job.TotalPdUsageTime

Outro

O total de GB segundos para todos os discos permanentes usados por todos os trabalhadores associados a este job do Dataflow.

job.TotalShuffleDataProcessed

Bytes

O total de bytes de dados aleatórios processados por este job do Dataflow.

job.TotalStreamingDataProcessed

Bytes

O total de bytes de dados de streaming processados por este job do Dataflow.

job.TotalVcpuTime

Segundos

O total de segundos de vCPU usados por este job do Dataflow.

job.UserCounter

Contar

Uma métrica de contador definida pelo usuário.

Copyright © 2024 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.