A integração da New Relic inclui uma integração para relatar seus dados do GCP Dataflow para nossos produtos. Aqui explicamos como ativar a integração e quais dados ela coleta.
Ativar integração
Para ativar a integração, siga os procedimentos padrão para conectar seu serviço GCP ao New Relic.
Configuração e polling
Você pode alterar a frequência de pesquisa e filtrar dados usando opções de configuração.
Informações de pesquisa padrão para a integração do GCP Dataflow:
- Intervalo de sondagem New Relic : 5 minutos
Encontre e use dados
Para encontrar seus dados de integração, acesse one.newrelic.com > All capabilities > Infrastructure > GCP e selecione uma integração.
Os dados são anexados ao seguinte tipo de evento:
Entidade | Tipo de evento | Fornecedor |
---|---|---|
Trabalho |
|
|
Para saber mais sobre como usar seus dados, consulte Compreender e usar dados de integração.
Dados métricos
Esta integração coleta dados do GCP Dataflow para o trabalho.
Dados do job do Dataflow
Métrica | Unidade | Descrição |
---|---|---|
| Bytes | Os bytes faturáveis de dados aleatórios processados por este job do Dataflow. |
| Contar | O número de vCPUs usadas atualmente por este job do Dataflow. Este é o número atual de trabalhadores vezes o número de vCPUs por trabalhador. |
| Contar | Os slots de embaralhamento atuais usados por este job do Dataflow. |
| Segundos | A idade (tempo desde o evento timestamp) até a qual todos os dados foram processados pelo pipeline. |
| Segundos | Duração em que a execução atual deste pipeline esteve no estado Em execução até o momento, em segundos. Quando uma execução é concluída, a duração dessa execução permanece até o início da próxima execução. |
| Contar | Número de elementos adicionados à pcollection até agora. |
| Bytes | Um número estimado de bytes adicionados à pcollection até agora. O Dataflow calcula o tamanho médio codificado dos elementos em uma pcollection e o multiplica pelo número de elementos. |
| Contar | Este trabalho falhou. |
| Segundos | A idade (tempo desde o evento timestamp) até a qual todos os dados foram processados por este estágio do pipeline. |
| Segundos | A duração máxima atual que um item de dados está processando ou aguardando processamento em segundos, por estágio do pipeline. |
| Segundos | A duração máxima atual que um item de dados está processando ou aguardando processamento, em segundos. |
| Outro | O total de GB de segundos de memória alocados para este job do Dataflow. |
| Outro | O total de GB segundos para todos os discos permanentes usados por todos os trabalhadores associados a este job do Dataflow. |
| Bytes | O total de bytes de dados aleatórios processados por este job do Dataflow. |
| Bytes | O total de bytes de dados de streaming processados por este job do Dataflow. |
| Segundos | O total de segundos de vCPU usados por este job do Dataflow. |
| Contar | Uma métrica de contador definida pelo usuário. |