• /
  • EnglishEspañolFrançais日本語한국어Português
  • Inicia sesiónComenzar ahora

Te ofrecemos esta traducción automática para facilitar la lectura.

En caso de que haya discrepancias entre la versión en inglés y la versión traducida, se entiende que prevalece la versión en inglés. Visita esta página para obtener más información.

Crea una propuesta

Integración de Databricks

La integración de Databricks es una aplicación independiente que recopila telemetría de la plataforma de inteligencia de datos de Databricks, para ser utilizada en la solución de problemas y la optimización de las cargas de trabajo de Databricks.

La integración recopila los siguientes tipos de telemetría:

  • Métricas de la aplicación Apache Spark, como la memoria del ejecutor de Spark y las métricas de la CPU, la duración de los trabajos de Spark, la duración y las métricas de E/S de las etapas y tareas de Spark, y las métricas de memoria y disco de Spark RDD
  • Métricas de ejecución de trabajos de Databricks Lakeflow, como duraciones, horas de inicio y finalización, y códigos y tipos de terminación para las ejecuciones de trabajos y tareas.
  • Métricas de actualización de la canalización declarativa de Databricks Lakeflow, como duraciones, horas de inicio y finalización, y estado de finalización de las actualizaciones y flujos.
  • Logs de eventos de la canalización declarativa de Databricks Lakeflow
  • Métricas de consulta de Databricks, incluyendo tiempos de ejecución y métricas de E/S de consulta.
  • Métricas y logs de estado del clúster de Databricks, como las métricas de memoria y CPU del controlador y del trabajador, y los logs del controlador y del ejecutor.
  • Datos de consumo y costos de Databricks que se pueden usar para mostrar el consumo de DBU y los costos estimados de Databricks.

Instalar la integración

La integración de Databricks está diseñada para ser implementada en el nodo del controlador de un clúster de Databricks de uso general, trabajo o pipeline. Para implementar la integración de esta manera, siga los pasos para implementar la integración en un clúster de Databricks.

La integración de Databricks también se puede implementar de forma remota en un entorno de host compatible. Para implementar la integración de esta manera, sigue los pasos para implementar la integración de forma remota.

Verifique la instalación

Una vez que la integración de Databricks se haya ejecutado durante unos minutos, use el generador de consultas en New Relic para ejecutar la siguiente consulta, reemplazando [YOUR_CLUSTER_NAME] con el nombre del clúster de Databricks donde se instaló la integración (tenga en cuenta que si el nombre de su clúster incluye un ', debe escaparlo con un \):

SELECT uniqueCount(executorId) AS Executors FROM SparkExecutorSample WHERE databricksClusterName = '[YOUR_CLUSTER_NAME]'

El resultado de la consulta debe ser un número mayor que cero.

Importe los paneles de ejemplo (opcional)

Para ayudarlo a comenzar a usar la telemetría recopilada, instale nuestros paneles preconstruidos usando la instalación guiada.

Alternativamente, puede instalar los paneles preconstruidos siguiendo las instrucciones que se encuentran en Importar los paneles de ejemplo.

Aprende más

Para obtener más información sobre la integración de Databricks, visite el repositorio oficial de la integración de New Relic Databricks.

Copyright © 2026 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.