• /
  • EnglishEspañolFrançais日本語한국어Português
  • Inicia sesiónComenzar ahora

Te ofrecemos esta traducción automática para facilitar la lectura.

En caso de que haya discrepancias entre la versión en inglés y la versión traducida, se entiende que prevalece la versión en inglés. Visita esta página para obtener más información.

Crea una propuesta

Configuración del gestor de trabajos sintético

Este documento lo guiará a través de la configuración de su administrador de trabajos Sintético mostrándole cómo:

configuración usando variables de entorno

Las variables ambientales le permiten ajustar la configuración del administrador de trabajos de Sintético para satisfacer sus necesidades ambientales y funcionales específicas.

Variables definidas por el usuario para monitor con script

Los administradores de trabajos de Private Sintético le permiten configurar variables de entorno para el monitor con script. Estas variables se administran localmente en SJM y se puede acceder a ellas a través de $env.USER_DEFINED_VARIABLES. Puede configurar variables definidas por el usuario de dos maneras. Puede montar un archivo JSON o puede proporcionar una variable de entorno al SJM en el lanzamiento. Si se proporcionan ambos, el SJM solo utilizará valores proporcionados por el entorno.

Acceder a variables de entorno definidas por el usuario desde un script

Para hacer referencia a una variable de entorno definida por el usuario configurada, emplee el $env.USER_DEFINED_VARIABLES reservado seguido del nombre de una variable dada con notación de punto (por ejemplo, $env.USER_DEFINED_VARIABLES.MY_VARIABLE).

Advertencia

Las variables de entorno definidas por el usuario no se desinfectan del log. Considere utilizar la característica de credenciales seguras para información confidencial.

Módulos de nodo personalizados

Se proporcionan módulos de nodo personalizados tanto en llamadas por minuto como en SJM. Le permiten crear un conjunto personalizado de módulos de nodo y usarlos en un monitor con script ( API con script y browser con script) para monitoreo sintético.

Configurar su directorio de módulos personalizados

Cree un directorio con un archivo package.json siguiendo las pautas oficiales de npm en la carpeta raíz. El SJM instalará cualquier dependencia enumerada en el paquete.json. campo dependencies . Estas dependencias estarán disponibles cuando se ejecute el monitor en el administrador de trabajos privado de Sintético. Vea un ejemplo de esto a continuación.

Ejemplo

En este ejemplo, se utiliza un directorio de módulo personalizado con la siguiente estructura:

/example-custom-modules-dir/
├── counter
│ ├── index.js
│ └── package.json
└── package.json ⇦ the only mandatory file

package.json define dependencies como un módulo local (por ejemplo, counter) y cualquier módulo alojado (por ejemplo, smallest versión 1.0.1):

{
"name": "custom-modules",
"version": "1.0.0", ⇦ optional
"description": "example custom modules directory", ⇦ optional
"dependencies": {
"smallest": "1.0.1", ⇦ hosted module
"counter": "file:./counter" ⇦ local module
}
}

Agregue su directorio de módulos personalizados al SJM para Docker, Podman o Kubernetes

Para comprobar si los módulos se instalaron correctamente o si se produjo algún error, busque las siguientes líneas en los registros del contenedor o pod synthetics-job-manager :

2024-06-29 03:51:28,407{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Detected mounted path for custom node modules
2024-06-29 03:51:28,408{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Validating permission for custom node modules package.json file
2024-06-29 03:51:28,409{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Installing custom node modules...
2024-06-29 03:51:44,670{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Custom node modules installed successfully.

Ahora puede agregar "require('smallest');" al script del monitor que envía a esta ubicación privada.

Cambiar package.json

Además de los módulos locales y alojados, también puede utilizar módulos de Node.js. Para actualizar los módulos personalizados utilizados por su SJM, realice cambios en el archivo package.json y reinicie SJM. Durante el proceso de reinicio, el SJM reconocerá el cambio de configuración y realizará automáticamente operaciones de limpieza y reinstalación para garantizar que se apliquen los módulos actualizados.

Advertencia

Módulos locales: si bien su package.json puede incluir cualquier módulo local, estos módulos deben residir dentro del árbol debajo de su directorio de módulos personalizados. Si se almacena fuera del árbol, el proceso de inicialización fallará y verá un mensaje de error en el log docker después de iniciar SJM.

Almacenamiento permanente de datos

Es posible que el usuario desee emplear almacenamiento de datos permanente para proporcionar el archivo user_defined_variables.json o admitir módulos de nodo personalizados.

Docker

Para configurar el almacenamiento permanente de datos en Docker:

  1. Cree un directorio en el host donde está iniciando Job Manager. Este es su directorio de origen.

  2. Inicie el Administrador de trabajos, montando el directorio de origen en el directorio de destino /var/lib/newrelic/synthetics.

    Ejemplo:

    bash
    $
    docker run ... -v /sjm-volume:/var/lib/newrelic/synthetics:rw ...

Podman

Para configurar el almacenamiento de datos permanente en Podman:

  1. Cree un directorio en el host donde está iniciando Job Manager. Este es su directorio de origen.
  2. Inicie el Administrador de trabajos, montando el directorio de origen en el directorio de destino /var/lib/newrelic/synthetics.

Ejemplo:

bash
$
podman run ... -v /sjm-volume:/var/lib/newrelic/synthetics:rw,z ...

Kubernetes

Para configurar el almacenamiento permanente de datos en Kubernetes, el usuario tiene dos opciones:

  1. Proporcione un PersistentVolumeClaim (PVC) existente para un PersistentVolume (PV) existente y establezca el valor de configuración synthetics.persistence.existingClaimName . Ejemplo:

    bash
    $
    helm install ... --set synthetics.persistence.existingClaimName=sjm-claim ...
  2. Proporcione un nombre de PersistentVolume (PV) existente y establezca el valor de configuración synthetics.persistence.existingVolumeName . Helm generará una PVC para el usuario. El usuario también puede configurar opcionalmente los siguientes valores:

  • synthetics.persistence.storageClass:La clase de almacenamiento del PV existente. Si no se proporciona, Kubernetes empleará la clase de almacenamiento predeterminada.

  • synthetics.persistence.size:El tamaño de la reclamación. Si no se configura, el valor predeterminado actualmente es 2Gi.

    bash
    $
    helm install ... --set synthetics.persistence.existingVolumeName=sjm-volume --set synthetics.persistence.storageClass=standard ...

Consideraciones de dimensionamiento para Docker y Podman

Para garantizar que su ubicación privada funcione de manera eficiente, debe aprovisionar suficientes recursos de CPU en su host para manejar su carga de trabajo de monitoreo. Muchos factores influyen en el tamaño, pero puedes estimar rápidamente tus necesidades. Necesitará 1 núcleo de CPU para cada monitor pesado (es decir, navegador simple, navegador con script o monitor de API con script). A continuación se muestran dos fórmulas que lo ayudarán a calcular la cantidad de núcleos que necesita, ya sea que esté diagnosticando una configuración actual o planeando una futura.

Fórmula 1: Diagnóstico de una ubicación existente

Si su ubicación privada actual tiene dificultades para mantener el ritmo y sospecha que hay cola de trabajos, emplee esta fórmula para descubrir cuántos núcleos necesita realmente. Se basa en el rendimiento observable de su sistema.

$$ C_req = (R_proc + R_growth) \cdot D_avg,m $$

  • C_reqC\_req = Núcleos de CPU requeridos.
  • R_procR\_proc = La tasa de trabajos pesados que se procesan por minuto.
  • R_growthR\_growth = La velocidad a la que su cola jobManagerHeavyweightJobs crece por minuto.
  • D_avg,mD\_avg,m = La duración promedio de trabajos pesados en minutos.

Esta fórmula calcula la tasa real de llegada de trabajos sumando los trabajos que su sistema está procesando a los trabajos que se están acumulando en la cola. Multiplicar esta carga total por la duración media del trabajo le indicará exactamente cuántos núcleos necesita para completar todo el trabajo sin colas.

Fórmula 2: Pronosticar una ubicación nueva o futura

Si está configurando una nueva ubicación privada o planea agregar más monitores, use esta fórmula para pronosticar sus necesidades con anticipación.

$$ C_req = N_mon \cdot D_avg,m \cdot \frac1P_avg,m $$

  • C_reqC\_req = Núcleos de CPU requeridos.
  • N_monN\_mon = La cantidad total de monitores pesados que planea ejecutar.
  • D_avg,mD\_avg,m = La duración promedio de un trabajo pesado en minutos.
  • P_avg,mP\_avg,m = El periodo promedio para monitores pesados en minutos (por ejemplo, un monitor que se ejecuta cada 5 minutos tiene P_avg,m=5P\_avg,m = 5).

Esto calcula tu carga de trabajo prevista a partir de principios básicos: cuántos monitores tienes, con qué frecuencia se ejecutan y cuánto tiempo tardan.

Factores de tamaño importantes

Al emplear estas fórmulas, recuerde tener en cuenta estos factores:

  • Duración del trabajo (D_avg,mD\_avg,m): su promedio debe incluir trabajos que expiran (generalmente ~3 minutos), ya que estos mantienen un núcleo durante toda su duración.
  • Errores de trabajo y reintentos: cuando un monitor falla, se vuelve a intentar automáticamente. Estos reintentos son trabajos adicionales que se suman a la carga total. Un monitor que falla y vuelve a intentarlo constantemente multiplica efectivamente su periodo, lo que afecta significativamente el rendimiento.
  • Escalamiento horizontal: además de agregar más núcleos a un host (escalamiento vertical), puede implementar administradores de trabajos sintéticos adicionales con la misma clave de ubicación privada para equilibrar la carga de trabajos en múltiples entornos (escalamiento horizontal).

Es importante tener en cuenta que un solo Sintéticos Job Manager (SJM) tiene un límite de rendimiento de aproximadamente 15 trabajos pesados por minuto. Esto se debe a una estrategia de subprocesamiento interno que favorece la competencia eficiente de trabajos entre múltiples SJM sobre la cantidad bruta de trabajos procesados por SJM. Si sus cálculos indican la necesidad de un mayor rendimiento, deberá ampliar la escala implementando SJM adicionales. Puede verificar si su cola de trabajos está creciendo para determinar si se necesitan más SJM.

Agregar más SJM con la misma clave de ubicación privada ofrece varios beneficios:

  • Equilibrio de carga: los trabajos para la ubicación privada se distribuyen entre todos los SJM disponibles.
  • Protección contra conmutación por error: si una instancia de SJM deja de funcionar, las demás pueden continuar procesando trabajos.
  • Mayor rendimiento total: el rendimiento total de su ubicación privada se convierte en la suma del rendimiento de cada SJM (por ejemplo, dos SJM proporcionan hasta ~30 trabajos/minuto).

Consulta de NRQL para diagnóstico

Puede ejecutar estas consultas en el generador de consultas para obtener los insumos para la fórmula de diagnóstico. Cerciorar de establecer el rango de tiempo en un periodo lo suficientemente largo para obtener un promedio estable.

1. Calcular la tasa de trabajos procesados por minuto (R_procR\_proc): Esta consulta cuenta el número de trabajos que no son de ping (pesados) completados durante el último día y muestra la tasa promedio por minuto.

FROM SyntheticCheck
SELECT rate(uniqueCount(id), 1 minute) AS 'job rate per minute'
WHERE location = 'YOUR_PRIVATE_LOCATION' AND typeLabel != 'Ping'
SINCE 1 day ago

2. Encuentra la tasa de crecimiento de la cola por minuto (R_growthR\_growth): Esta consulta calcula el crecimiento promedio por minuto de la cola jobManagerHeavyweightJobs en un gráfico de seriales temporales. Una línea por encima de cero indica que la cola está creciendo, mientras que una línea por debajo de cero significa que está disminuyendo.

FROM SyntheticsPrivateLocationStatus
SELECT derivative(jobManagerHeavyweightJobs, 1 minute) AS 'queue growth rate per minute'
WHERE name = 'YOUR_PRIVATE_LOCATION'
TIMESERIES SINCE 1 day ago

Sugerencia

Cerciorar de seleccionar la cuenta donde existe la ubicación privada. Es mejor ver esta consulta como un serial de tiempo porque la función derivada puede variar mucho. El objetivo es obtener una estimación de la tasa de crecimiento de la cola por minuto. Play con diferentes rangos de tiempo para ver qué funciona mejor.

3. Encontrar el número total de monitores pesados (N_monN\_mon): Esta consulta encuentra el recuento único de monitores pesados.

FROM SyntheticCheck
SELECT uniqueCount(monitorId) AS 'monitor count'
WHERE location = 'YOUR_PRIVATE_LOCATION' AND typeLabel != 'Ping'
SINCE 1 day ago

4. Calcular la duración promedio del trabajo en minutos (D_avg,mD\_avg,m): Esta consulta encuentra la duración promedio de ejecución de los trabajos no ping completados y convierte el resultado de milisegundos a minutos. executionDuration representa el tiempo que tardó el trabajo en ejecutar en el host.

FROM SyntheticCheck
SELECT average(executionDuration)/60e3 AS 'avg job duration (m)'
WHERE location = 'YOUR_PRIVATE_LOCATION' AND typeLabel != 'Ping'
SINCE 1 day ago

5. Encuentre el periodo promedio del monitor de peso pesado (P_avg,mP\_avg,m): si la cola jobManagerHeavyweightJobs de la ubicación privada está creciendo, no es preciso calcular el periodo promedio del monitor a partir de los resultados existentes. Esto deberá estimar a partir de la lista de monitores en la página Monitores Sintéticos. Cerciórate de seleccionar la cuenta New Relic correcta y es posible que debas filtrar por privateLocation.

Sugerencia

Los monitores sintéticos pueden existir en múltiples subcuentas. Si tienes más subcuentas de las que se pueden seleccionar en el generador de consultas, elige las cuentas con más monitores.

Nota sobre los monitores de ping y la cola pingJobs

Los monitores de ping son diferentes. Son trabajos ligeros que no consumen un núcleo de CPU completo cada uno. En su lugar, emplean una cola separada (pingJobs) y se ejecutan en un grupo de subprocesos de trabajo.

Si bien consumen menos recursos, un gran volumen de trabajos de ping, especialmente los fallidos, aún pueden causar problemas de rendimiento. Tenga en cuenta estos puntos:

  • Modelo de recursos: los trabajos de ping emplean subprocesos de trabajo, no núcleos de CPU dedicados. En estos casos no se aplica el cálculo de núcleo por puesto de trabajo.
  • Tiempo de espera y reintento: un trabajo de ping fallido puede ocupar un hilo de trabajo durante hasta 60 segundos. Primero intenta una solicitud HTTP HEAD (tiempo de espera de 30 segundos). Si eso falla, vuelve a intentarlo inmediatamente con una solicitud HTTP GET (otro tiempo de espera de 30 segundos).
  • Escalamiento: aunque la fórmula de dimensionamiento es diferente, se aplican los mismos principios. Para manejar un gran volumen de trabajos de ping y evitar que la cola pingJobs crezca, es posible que necesite escalar verticalmente u horizontalmente. Escalar significa aumentar los recursos de CPU y memoria por host o namespace. Escalar horizontalmente significa agregar más instancias del tiempo de ejecución de ping. Esto se puede hacer implementando más administradores de trabajos en más hosts, en más espacios de nombres o incluso dentro del mismo namespace. Alternativamente, el ping-runtime en Kubernetes le permite establecer una mayor cantidad de réplicas por implementación.

Consideraciones de dimensionamiento para Kubernetes y OpenShift

Cada entorno de ejecución empleado por el administrador de trabajos Kubernetes y OpenShift Sintético se puede dimensionar de forma independiente configurando valores en el gráfico de Helm. El node-api-runtime y el node-browser-runtime se dimensionan de forma independiente empleando una combinación de las configuraciones parallelism y completions.

  • La configuración parallelism controla cuántos pods de un entorno de ejecución particular se ejecutan simultáneamente.
  • La configuración completions controla cuántos pods deben completar antes de que CronJob inicie otro trabajo Kubernetes para ese tiempo de ejecución.

Cómo dimensionar su despliegue: Una guía paso a paso

Su objetivo es configurar el paralelismo suficiente para manejar su carga de trabajo sin exceder el límite de rendimiento de su instancia SJM.

Paso 1: Estima tu carga de trabajo requerida

Finalizaciones: Esto determina cuántos pods de tiempo de ejecución deben completar antes de que se inicie un nuevo trabajo Kubernetes.

Primero, determine la duración promedio de ejecución de trabajos y la tasa de trabajos en su ubicación privada. Emplee executionDuration ya que refleja con mayor precisión el tiempo de ejecución activo del pod.

-- Get average job execution duration (in seconds)
FROM SyntheticCheck
SELECT average(executionDuration / 60e3) AS 'D_avg_m'
WHERE typeLabel != 'Ping' AND location = 'YOUR_PRIVATE_LOCATION'
FACET typeLabel SINCE 1 hour ago

$$ Finalizaciones = \frac5D_avg,m $$

Donde D_avg,mD\_avg,m es la duración promedio de ejecución del trabajo en segundos.

Paralelismo requerido: Esto determina cuántos trabajadores (pods) necesita ejecutar simultáneamente para manejar su carga de trabajo de 5 minutos.

-- Get jobs per 5 minutes
FROM SyntheticCheck
SELECT rate(uniqueCount(id), 5 minutes) AS 'N_m'
WHERE typeLabel != 'Ping' AND location = 'YOUR_PRIVATE_LOCATION'
FACET typeLabel SINCE 1 hour ago

$$ P_req = \fracN_mCompletaciones $$

Donde N_mN\_m es su número de trabajos por 5 minutos. Este valor P_reqP\_req es su paralelismo total objetivo.

Paso 2: Comprobar el límite de rendimiento de un solo SJM

Paralelismo máximo: Esto determina cuántos trabajadores (pods) puede emplear eficazmente su SJM.

$$ P_max ≈ 15 ⋅ D_avg,m $$

Este valor P_maxP\_max es el límite de su sistema para una implementación de SJM Helm .

Sugerencia

Las consultas anteriores se basan en los resultados actuales. Si su ubicación privada no tiene ningún resultado o el administrador de trabajos no está funcionando de la mejor manera, es posible que los resultados de la consulta no sean precisos. En ese caso, comience con los ejemplos de la tabla siguiente y ajústelos hasta que su cola sea estable.

Sugerencia

Una consideración clave es que una sola instancia de SJM tiene un rendimiento máximo de aproximadamente 15 trabajos pesados por minuto. Puedes calcular el paralelismo efectivo máximo (P_maxP\_max) que un solo SJM puede soportar antes de alcanzar este límite.

Paso 3: Comparar, configurar y escalar

Compara el paralelismo requerido (P_reqP\_req) del Paso 1 con el paralelismo máximo (P_maxP\_max) del Paso 2.

Scenario A: P_reqP_maxP\_req \le P\_max

  • Diagnóstico: Su carga de trabajo se encuentra dentro del límite de una sola instancia de SJM.

  • Acción:

    1. Deberás desplegar una versión de SJM Helm.
    2. En tu gráfico Helm values.yaml, establece parallelism en tu P_reqP\_req calculado.
    3. Establece completions en tus Completaciones calculadas. Para una mayor eficiencia, este valor normalmente debería ser de 6 a 10 veces su configuración parallelism.

Scenario B: P\_req > P\_max

  • Diagnóstico: Su carga de trabajo supera el límite de ~15 trabajos/minuto de un solo SJM.

  • Acción:

    1. Debe escalar horizontalmente desplegando múltiples versiones separadas de SJM Helm .
    2. Consulte la sección "Escalado horizontal con múltiples implementaciones de SJM" a continuación para conocer el procedimiento correcto.
    3. No aumente el replicaCount en su gráfico de Helm.

Paso 4: Monitorea tu cola

Tras aplicar los cambios, debe verificar que su cola de trabajos sea estable y no esté creciendo. Una cola que crece constantemente significa que su ubicación aún no cuenta con los recursos suficientes.

Ejecute esta consulta para comprobar la tasa de crecimiento de la cola:

-- Check for queue growth (a positive value means the queue is growing)
SELECT derivative(jobManagerHeavyweightJobs, 1 minute) AS 'Heavyweight Queue Growth Rate (per min)'
FROM SyntheticsPrivateLocationStatus
WHERE name = 'YOUR_PRIVATE_LOCATION'
SINCE 1 hour ago TIMESERIES

Si la "Tasa de crecimiento de la cola" es consistentemente positiva, debe instalar más despliegue de SJM Helm (Escenario B) o volver a revisar su configuración parallelism (Escenario A).

Ejemplos de configuración y ajuste

La configuración parallelism afecta directamente la cantidad de trabajos de Sintéticos por minuto que se pueden ejecutar. Si el valor es demasiado pequeño, la cola puede crecer. Si el valor es demasiado grande, los nodos pueden sufrir limitaciones de recursos.

Ejemplo

Descripción

parallelism=1 completions=1

El tiempo de ejecución ejecutará 1 trabajo Sintético por minuto. Después de que se complete 1 trabajo, la configuración CronJob comenzará un nuevo trabajo en el siguiente minuto. Throughput will be extremely limited with this configuration.

parallelism=1 completions=6

El entorno de ejecución ejecutará 1 trabajo de Sintéticos a la vez. Una vez finalizado el trabajo, comenzará inmediatamente otro. Después de que se completen 6 trabajos, la configuración CronJob iniciará un nuevo trabajo de Kubernetes. Throughput will be limited. Un único trabajo de Sintéticos de larga duración bloqueará el procesamiento de cualquier otro trabajo de Sintéticos de este tipo.

parallelism=3 completions=24

El entorno de ejecución ejecutará 3 trabajos de Sintéticos a la vez. Una vez finalizado cualquiera de estos trabajos, comenzará inmediatamente otro. Después de que se completen 24 trabajos, la configuración CronJob iniciará un nuevo trabajo de Kubernetes. Throughput is much better with this or similar configurations.

Si su configuración parallelism funciona correctamente (manteniendo la cola en cero), establecer un valor completions mayor (por ejemplo, 6-10 veces el parallelism) puede mejorar la eficiencia al:

  • Adaptar a la variabilidad en la duración de los trabajos.
  • Reducir el número de ciclos de finalización para minimizar la ineficiencia de "finalización inminente de las finalizaciones", donde el siguiente lote no puede comenzar hasta que finalice el último trabajo del lote actual.

Es importante tener en cuenta que el valor completions no debe ser demasiado grande o CronJob experimentará un evento de advertencia como el siguiente:

bash
$
8m40s Warning TooManyMissedTimes cronjob/synthetics-node-browser-runtime too many missed start times: 101. Set or decrease .spec.startingDeadlineSeconds or check clock skew

Sugerencia

New Relic no es responsable de ninguna modificación que realice en los archivos del administrador de trabajos de Sintéticos.

Escalado horizontal con múltiples despliegues de SJM

Para escalar más allá del rendimiento de ~15 trabajos/minuto de un solo SJM, debe instalar varias versiones separadas de SJM Helm.

Importante

No emplee replicaCount para escalar el pod del administrador de trabajos. No se puede escalar aumentando el replicaCount para una sola versión de Helm. La arquitectura SJM requiere una relación 1:1 entre un pod de tiempo de ejecución y su pod SJM padre. Si el pod de tiempo de ejecución envía los resultados a la réplica SJM incorrecta (por ejemplo, a través de un servicio Kubernetes), esos resultados se perderán.

La estrategia correcta es desplegar múltiples instancias de SJM, cada una como su propia versión Helm. Cada SJM competirá por los trabajos desde la misma ubicación privada, lo que proporcionará equilibrio de carga, protección contra fallos y un mayor rendimiento total de trabajos.

Estrategia de escalamiento simplificada

Suponiendo que P\_req > P\_max y necesite escalar horizontalmente, puede simplificar el mantenimiento tratando cada despliegue de SJM como una unidad de capacidad fija.

  1. Establecer paralelismo máximo: Para cada SJM, establezca parallelism en el mismo valor P_maxP\_max. Esto maximiza el rendimiento potencial de cada SJM.

  2. Completaciones de conjuntos: Para cada SJM, establezca también completions en un valor fijo. La fórmula P_reqP\_req del Paso 1 se puede modificar para estimar las finalizaciones sustituyendo el valor P_maxP\_max:

    $$ Finalizaciones = \fracN_mP_max $$

    Donde N_mN\_m es su número de trabajos por 5 minutos. Ajustar según sea necesario luego de la implementación para lograr un tiempo de ejecución de 5 minutos por trabajo Kubernetes por entorno de ejecución, es decir, node-browser-runtime y node-api-runtime.

  3. Versiones de instalación: Instale tantas versiones separadas de Helm como necesite para manejar su total de P_reqP\_req. Por ejemplo, si su P_reqP\_req total es 60 y fijó parallelism de cada SJM en 20 (P_maxP\_max del paso 2), necesitaría tres despliegues Helm separados para satisfacer la demanda de trabajo requerida.

  4. Monitorear y agregar: Monitorear su cola de trabajos (consulte el paso 4). Si comienza a crecer, simplemente instale otra versión de Helm (por ejemplo, sjm-delta) empleando la misma configuración fija.

Al fijar el paralelismo y las finalizaciones a valores estáticos basados en P_maxP\_max, aumentar o disminuir la capacidad se convierte en un proceso más simple de agregar o eliminar versiones de Helm. Esto ayuda a evitar el desperdicio de recursos del clúster en un valor de paralelismo superior al que el SJM puede emplear de manera efectiva.

Ejemplo de instalación

Al instalar varias versiones de SJM, debe proporcionar un nombre único para cada versión. Todas las instancias deben configurar con la misma clave de ubicación privada.

Se recomienda encarecidamente establecer fullnameOverride para crear nombres de recursos más cortos y manejables. Por ejemplo, para instalar dos SJM llamados sjm-alpha y sjm-beta en el namespace newrelic (ambos usando el mismo values.yaml con su paralelismo y autocompletado fijos):

bash
$
# Install the first SJM deployment
$
helm upgrade --install sjm-alpha newrelic/synthetics-job-manager \
>
-n newrelic \
>
-f values.yaml \
>
--set fullnameOverride=sjm-alpha \
>
--set ping-runtime.fullnameOverride=sjm-alpha-ping \
>
--set node-api-runtime.fullnameOverride=sjm-alpha-api \
>
--set node-browser-runtime.fullnameOverride=sjm-alpha-browser
bash
$
# Install the second SJM deployment to add capacity
$
helm upgrade --install sjm-beta newrelic/synthetics-job-manager \
>
-n newrelic \
>
-f values.yaml \
>
--set fullnameOverride=sjm-beta
>
--set ping-runtime.fullnameOverride=sjm-beta-ping \
>
--set node-api-runtime.fullnameOverride=sjm-beta-api \
>
--set node-browser-runtime.fullnameOverride=sjm-beta-browser

Puedes continuar este patrón (sjm-charlie, sjm-delta etc.) para tantos SJM como sea necesario para evitar que la cola de trabajos crezca.

Copyright © 2025 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.