• /
  • EnglishEspañol日本語한국어Português
  • Inicia sesiónComenzar ahora

Te ofrecemos esta traducción automática para facilitar la lectura.

En caso de que haya discrepancias entre la versión en inglés y la versión traducida, se entiende que prevalece la versión en inglés. Visita esta página para obtener más información.

Crea una propuesta

Integración de monitoreo Google Cloud Dataflow

La integración de New Relic incluye una integración para informar sus datos de GCP Dataflow a nuestros productos. Aquí te explicamos cómo activar la integración y qué datos recopila.

Activar la integración

Para habilitar la integración, siga los procedimientos estándar para conectar su servicio GCP a New Relic.

Configuración y sondeo

Puede cambiar la frecuencia de sondeo y filtrar datos usando las opciones de configuración.

Información de sondeo predeterminada para la integración de GCP Dataflow:

  • New Relic intervalo de sondeo: 5 minutos

Buscar y utilizar datos

Para encontrar sus datos de integración, vaya a one.newrelic.com > All capabilities > Infrastructure > GCP y seleccione una integración.

Los datos se adjuntan al siguiente tipo de evento:

Entidad

Tipo de evento

Proveedor

Trabajo

GcpDataflowJobSample

GcpDataflowJob

Para obtener más información sobre cómo utilizar sus datos, consulte Comprender y utilizar los datos de integración.

Datos métricos

Esta integración recopila datos de GCP Dataflow para Job.

Datos del trabajo de flujo de datos

Métrica

Unidad

Descripción

job.BillableShuffleDataProcessed

Bytes

Los bytes facturables de datos aleatorios procesados por este trabajo de Dataflow.

job.CurrentNumVcpus

Contar

La cantidad de vCPU que utiliza actualmente este trabajo de Dataflow. Esta es la cantidad actual de trabajadores multiplicada por la cantidad de vCPU por trabajador.

job.CurrentShuffleSlots

Contar

Las ranuras de reproducción aleatoria actuales utilizadas por este trabajo de Dataflow.

job.DataWatermarkAge

Segundos

La antigüedad (tiempo desde timestamp del evento) hasta la cual el pipeline ha procesado todos los datos.

job.ElapsedTime

Segundos

Duración que la ejecución actual de este pipeline ha estado en estado En ejecución hasta el momento, en segundos. Cuando se completa una ejecución, esto permanece en la duración de esa ejecución hasta que comience la siguiente ejecución.

job.Elements

Contar

Número de elementos agregados a la colección hasta el momento.

job.EstimatedBytes

Bytes

Número estimado de bytes agregados a la colección p hasta el momento. Dataflow calcula el tamaño codificado promedio de los elementos en una colección y lo multiplica por la cantidad de elementos.

job.IsFailed

Contar

¿Ha fracasado este trabajo?

job.PerStageDataWatermarkAge

Segundos

La antigüedad (tiempo desde timestamp del evento) hasta la cual todos los datos han sido procesados en esta etapa del pipeline.

job.PerStageSystemLag

Segundos

La duración máxima actual que un elemento de datos ha estado procesando o esperando procesamiento en segundos, por etapa de pipeline.

job.SystemLag

Segundos

La duración máxima actual que un elemento de datos ha estado procesando o en espera de procesamiento, en segundos.

job.TotalMemoryUsageTime

Otro

El total de GB y segundos de memoria asignados a este trabajo de Dataflow.

job.TotalPdUsageTime

Otro

El total de GB en segundos para todos los discos persistentes utilizados por todos los trabajadores asociados con este trabajo de Dataflow.

job.TotalShuffleDataProcessed

Bytes

El total de bytes de datos aleatorios procesados por este trabajo de Dataflow.

job.TotalStreamingDataProcessed

Bytes

El total de bytes de transmisión de datos procesados por este trabajo de Dataflow.

job.TotalVcpuTime

Segundos

El total de segundos de vCPU utilizados por este trabajo de Dataflow.

job.UserCounter

Contar

Una métrica de contador definida por el usuario.

Copyright © 2024 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.