La integración de New Relic incluye una integración para informar sus datos de GCP Dataflow a nuestros productos. Aquí te explicamos cómo activar la integración y qué datos recopila.
Activar la integración
Para habilitar la integración, siga los procedimientos estándar para conectar su servicio GCP a New Relic.
Configuración y sondeo
Puede cambiar la frecuencia de sondeo y filtrar datos usando las opciones de configuración.
Información de sondeo predeterminada para la integración de GCP Dataflow:
- New Relic intervalo de sondeo: 5 minutos
Buscar y utilizar datos
Para encontrar sus datos de integración, vaya a one.newrelic.com > All capabilities > Infrastructure > GCP y seleccione una integración.
Los datos se adjuntan al siguiente tipo de evento:
Entidad | Tipo de evento | Proveedor |
---|---|---|
Trabajo |
|
|
Para obtener más información sobre cómo utilizar sus datos, consulte Comprender y utilizar los datos de integración.
Datos métricos
Esta integración recopila datos de GCP Dataflow para Job.
Datos del trabajo de flujo de datos
Métrica | Unidad | Descripción |
---|---|---|
| Bytes | Los bytes facturables de datos aleatorios procesados por este trabajo de Dataflow. |
| Contar | La cantidad de vCPU que utiliza actualmente este trabajo de Dataflow. Esta es la cantidad actual de trabajadores multiplicada por la cantidad de vCPU por trabajador. |
| Contar | Las ranuras de reproducción aleatoria actuales utilizadas por este trabajo de Dataflow. |
| Segundos | La antigüedad (tiempo desde timestamp del evento) hasta la cual el pipeline ha procesado todos los datos. |
| Segundos | Duración que la ejecución actual de este pipeline ha estado en estado En ejecución hasta el momento, en segundos. Cuando se completa una ejecución, esto permanece en la duración de esa ejecución hasta que comience la siguiente ejecución. |
| Contar | Número de elementos agregados a la colección hasta el momento. |
| Bytes | Número estimado de bytes agregados a la colección p hasta el momento. Dataflow calcula el tamaño codificado promedio de los elementos en una colección y lo multiplica por la cantidad de elementos. |
| Contar | ¿Ha fracasado este trabajo? |
| Segundos | La antigüedad (tiempo desde timestamp del evento) hasta la cual todos los datos han sido procesados en esta etapa del pipeline. |
| Segundos | La duración máxima actual que un elemento de datos ha estado procesando o esperando procesamiento en segundos, por etapa de pipeline. |
| Segundos | La duración máxima actual que un elemento de datos ha estado procesando o en espera de procesamiento, en segundos. |
| Otro | El total de GB y segundos de memoria asignados a este trabajo de Dataflow. |
| Otro | El total de GB en segundos para todos los discos persistentes utilizados por todos los trabajadores asociados con este trabajo de Dataflow. |
| Bytes | El total de bytes de datos aleatorios procesados por este trabajo de Dataflow. |
| Bytes | El total de bytes de transmisión de datos procesados por este trabajo de Dataflow. |
| Segundos | El total de segundos de vCPU utilizados por este trabajo de Dataflow. |
| Contar | Una métrica de contador definida por el usuario. |