• EnglishEspañol日本語한국어Português
  • Inicia sesiónComenzar ahora

Te ofrecemos esta traducción automática para facilitar la lectura.

In the event of any inconsistency between the English version and the translated version, the English versionwill take priority. Please visit this page for more information.

Crea una propuesta

Integración de NVIDIA Tritón

Nuestra integración NVIDIA Triton monitorea la implementación y gestión del modelo de IA en el entorno de producción. Triton proporciona una solución flexible y escalable para implementar modelos de aprendizaje profundo, lo que permite a la organización implementar de manera eficiente la aplicación de IA en una variedad de plataformas de hardware, incluidas GPU y CPU.

Luego de configurar nuestra integración NVIDIA Triton, te brindamos un dashboard para tu NVIDIA Triton métrica.

Instalar el agente de infraestructura

Para utilizar la integración de NVIDIA Triton, también debe instalar el agente de infraestructura en el mismo host. El agente de infraestructura monitorea el host en sí, mientras que la integración que instalará en el siguiente paso amplía su monitoreo con datos específicos de NVIDIA Triton.

Habilite la integración de NVIDIA Triton con nri-prometheus

Las métricas del servidor Triton se muestran en la URL http://localhost:8002/metrics.

Para configurar la integración de NVIDIA Triton, siga estos pasos:

  1. Ejecute este comando para crear un archivo llamado nri-prometheus-config.yml en el directorio de integración:

    bash
    $
    touch /etc/newrelic-infra/integrations.d/nri-prometheus-config.yml
  2. Agregue el siguiente fragmento a su archivo nri-prometheus-config.yml para permitir que el agente capture datos de NVIDIA Triton:

    integrations:
    - name: nri-prometheus
    config:
    # When standalone is set to false nri-prometheus requires an infrastructure agent to work and send data. Defaults to true
    standalone: false
    # When running with infrastructure agent emitters will have to include infra-sdk
    emitters: infra-sdk
    # The name of your cluster. It's important to match other New Relic products to relate the data.
    cluster_name: "YOUR_DESIRED_CLUSTER_NAME"
    targets:
    - description: NVIDIA Triton metrics list
    urls: ["http://localhost:8002/metrics"]
    # tls_config:
    # ca_file_path: "/etc/etcd/etcd-client-ca.crt"
    # cert_file_path: "/etc/etcd/etcd-client.crt"
    # key_file_path: "/etc/etcd/etcd-client.key"
    # Whether the integration should run in verbose mode or not. Defaults to false
    verbose: false
    # Whether the integration should run in audit mode or not. Defaults to false.
    # Audit mode logs the uncompressed data sent to New Relic. Use this to log all data sent.
    # It does not include verbose mode. This can lead to a high log volume, use with care
    audit: false
    # The HTTP client timeout when fetching data from endpoints. Defaults to 30s.
    # scrape_timeout: "30s"
    # Length in time to distribute the scraping from the endpoints
    scrape_duration: "5s"
    # Number of worker threads used for scraping targets.
    # For large clusters with many (>400) endpoints, slowly increase until scrape
    # time falls between the desired `scrape_duration`.
    # Increasing this value too much will result in huge memory consumption if too
    # many metrics are being scraped.
    # Default: 4
    # worker_threads: 4
    # Whether the integration should skip TLS verification or not. Defaults to false
    insecure_skip_verify: true
    timeout: 10s

Configuración de los logs de NVIDIA Triton

Para configurar los logs de nvidia triton, siga los pasos que se describen a continuación.

  1. Ejecute este comando Docker para verificar el estado de ejecución del contenedor:

    bash
    $
    sudo docker ps
  2. Copie el ID del contenedor para el contenedor nvidia-triton y ejecute este comando:

    bash
    $
    sudo docker logs -f <container_id> &> /tmp/triton.log &

    Luego, verifique que haya un archivo de log llamado triton.log ubicado en el directorio /tmp/ .

Reenviando los logs de NVIDIA Triton a New Relic

Puede utilizar nuestro reenvío de logs para reenviar los logs de NVIDIA Triton a New Relic. En máquinas Linux, su archivo de log llamado logging.yml debe estar en esta ruta:

bash
$
cd /etc/newrelic-infra/logging.d/

Una vez que encuentre el archivo de log en la ruta anterior, incluya este script en el archivo logging.yml:

logs:
- name: triton.log
file: /tmp/triton.log
attributes:
logtype: triton_logs

Reinicie el agente New Relic Infrastructure

Ejecute este comando para reiniciar su agente de infraestructura:

bash
$
sudo systemctl restart newrelic-infra.service

En un par de minutos, tu servidor NVIDIA Triton enviará métricas a one.newrelic.com.

Encuentra tus datos

Puede elegir nuestra plantilla dashboard prediseñadas llamada NVIDIA Triton para monitor su servidor NVIDIA Triton métrica. Siga estos pasos para utilizar nuestra plantilla dashboard prediseñadas:

  1. Vaya a one.newrelic.com > + Add data y escriba NVIDIA Triton.

  2. En Dashboards, haga clic en NVIDIA Triton.

  3. Haga clic en Edit si desea cambiar la cuenta en la ventana emergente abierta.

  4. Haga clic en Setup NVIDIA Triton u Skip this step si ya configuró esta fuente de datos.

  5. Haga clic en View dashboard y vea sus datos de NVIDIA Triton en New Relic.

    Puedes encontrar tu dashboard personalizado de NVIDIA Triton en la UI Dashboards. Consulte nuestra sección dashboard para obtener más información.

    Aquí hay una consulta NRQL para verificar la memoria de la CPU NVIDIA Triton:

    SELECT latest(nv_cpu_memory_total_bytes) / 1e+6 AS 'memory (MB)' FROM Metric

¿Que sigue?

Para obtener más información sobre cómo crear una consulta NRQL y generar un panel, consulte estos documentos:

Copyright © 2024 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.