• /
  • EnglishEspañolFrançais日本語한국어Português
  • EntrarComeçar agora

Esta tradução de máquina é fornecida para sua comodidade.

Caso haja alguma divergência entre a versão em inglês e a traduzida, a versão em inglês prevalece. Acesse esta página para mais informações.

Criar um problema

Configuração do gerenciador de tarefas Sintético

Este documento irá guiá-lo na configuração do seu gerenciador de tarefas Sintético , mostrando como:

Configuração usando variáveis de ambiente

As variáveis ambientais permitem ajustar a configuração do gerenciador de tarefas Sintético para atender às suas necessidades ambientais e funcionais específicas.

Variáveis definidas pelo usuário para monitor com script

Os gerenciadores de tarefas Private Sintético permitem configurar variáveis de ambiente para monitor com script. Essas variáveis são gerenciadas localmente no SJM e podem ser acessadas via $env.USER_DEFINED_VARIABLES. Você pode definir variáveis definidas pelo usuário de duas maneiras. Você pode montar um arquivo JSON ou fornecer uma variável de ambiente ao SJM no lançamento. Se ambos forem fornecidos, o SJM utilizará apenas valores fornecidos pelo ambiente.

Acessando variáveis de ambiente definidas pelo usuário a partir do script

Para fazer referência a uma variável de ambiente definida pelo usuário configurada, use o $env.USER_DEFINED_VARIABLES reservado seguido do nome de uma determinada variável com notação de ponto (por exemplo, $env.USER_DEFINED_VARIABLES.MY_VARIABLE).

Cuidado

Variáveis de ambiente definidas pelo usuário não são limpas do log. Considere usar o recurso de credenciais seguras para informações confidenciais.

Módulos de nós personalizados

Módulos de nós personalizados são fornecidos em chamadas por minuto e SJM. Eles permitem criar um conjunto customizado de módulos de nós e utilizá-los em monitoramento scriptado ( API script e browser script) para monitoramento sintético.

Configure seu diretório de módulos personalizados

Crie um diretório com um arquivo package.json seguindo as diretrizes oficiais do npm na pasta raiz. O SJM instalará qualquer dependência listada no arquivo package.json campo dependencies . Essas dependências estarão disponíveis ao executar o monitor no gerenciador de tarefas Sintético privado. Veja um exemplo disso abaixo.

Exemplo

Neste exemplo, um diretório de módulo customizado é usado com a seguinte estrutura:

/example-custom-modules-dir/
├── counter
│ ├── index.js
│ └── package.json
└── package.json ⇦ the only mandatory file

O package.json define dependencies como um módulo local (por exemplo, counter) e qualquer módulo hospedado (por exemplo, smallest versão 1.0.1):

{
"name": "custom-modules",
"version": "1.0.0", ⇦ optional
"description": "example custom modules directory", ⇦ optional
"dependencies": {
"smallest": "1.0.1", ⇦ hosted module
"counter": "file:./counter" ⇦ local module
}
}

Adicione seu diretório de módulos personalizados ao SJM para Docker, Podman ou Kubernetes

Para verificar se os módulos foram instalados corretamente ou se ocorreu algum erro, procure as seguintes linhas no synthetics-job-manager contêiner ou log pod :

2024-06-29 03:51:28,407{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Detected mounted path for custom node modules
2024-06-29 03:51:28,408{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Validating permission for custom node modules package.json file
2024-06-29 03:51:28,409{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Installing custom node modules...
2024-06-29 03:51:44,670{UTC} [main] INFO c.n.s.j.p.options.CustomModules - Custom node modules installed successfully.

Agora você pode adicionar "require('smallest');" ao script de monitor que você envia para esta localização privada.

Mudar package.json

Além dos módulos locais e hospedados, você também pode utilizar módulos Node.js. Para atualizar os módulos customizados usados pelo seu SJM, faça alterações no arquivo package.json e reinicie o SJM. Durante o processo de reinicialização, o SJM reconhecerá a alteração na configuração e executará automaticamente as operações de limpeza e reinstalação para garantir que os módulos atualizados sejam aplicados.

Cuidado

Módulos locais: embora seu package.json possa incluir qualquer módulo local, esses módulos devem residir na árvore no diretório do módulo personalizado. Se armazenado fora da árvore, o processo de inicialização falhará e você verá uma mensagem de erro no log docker após iniciar o SJM.

Armazenamento permanente de dados

O usuário pode querer usar o armazenamento permanente de dados para fornecer o arquivo user_defined_variables.json ou oferecer suporte a módulos de nós personalizados.

Docker

Para definir o armazenamento permanente de dados no Docker:

  1. Crie um diretório no host onde você está iniciando o Job Manager. Este é o seu diretório de origem.

  2. inicie o Job Manager, montando o diretório de origem no diretório de destino /var/lib/newrelic/synthetics.

    Exemplo:

    bash
    $
    docker run ... -v /sjm-volume:/var/lib/newrelic/synthetics:rw ...

Homem-Pod

Para definir o armazenamento permanente de dados no Podman:

  1. Crie um diretório no host onde você está iniciando o Job Manager. Este é o seu diretório de origem.
  2. inicie o Job Manager, montando o diretório de origem no diretório de destino /var/lib/newrelic/synthetics.

Exemplo:

bash
$
podman run ... -v /sjm-volume:/var/lib/newrelic/synthetics:rw,z ...

Kubernetes

Para definir o armazenamento permanente de dados no Kubernetes, o usuário tem duas opções:

  1. Forneça um PersistentVolumeClaim (PVC) existente para um PersistentVolume (PV) existente, definindo o valor de configuração synthetics.persistence.existingClaimName . Exemplo:

    bash
    $
    helm install ... --set synthetics.persistence.existingClaimName=sjm-claim ...
  2. Forneça um nome PersistentVolume (PV) existente, definindo o valor de configuração synthetics.persistence.existingVolumeName . Helm irá gerar um PVC para o usuário. O usuário também pode definir opcionalmente os seguintes valores:

  • synthetics.persistence.storageClass: A classe de armazenamento do PV existente. Se não for fornecido, o Kubernetes usará a classe de armazenamento padrão.

  • synthetics.persistence.size: O tamanho da reivindicação. Se não for definido, o padrão atualmente é 2Gi.

    bash
    $
    helm install ... --set synthetics.persistence.existingVolumeName=sjm-volume --set synthetics.persistence.storageClass=standard ...

Considerações sobre dimensionamento para Docker e Podman

Para garantir que sua localização privada seja executada com eficiência, você deve provisionar recursos de CPU suficientes em seu host para lidar com sua workload de monitoramento. Muitos fatores influenciam o dimensionamento, mas você pode estimar rapidamente suas necessidades. Você precisará de 1 núcleo de CPU para cada monitor pesado (por exemplo, navegador simples, navegador com script ou monitor de API com script). Abaixo estão duas fórmulas para ajudar você a calcular o número de núcleos necessários, seja para diagnosticar uma configuração atual ou planejar uma futura.

Fórmula 1: Diagnosticando um Local Existente

Se sua localização privada atual estiver com dificuldades para acompanhar e você suspeitar que há trabalhos na fila, use esta fórmula para descobrir quantos núcleos você realmente precisa. Baseia-se no desempenho observável do seu sistema.

$$ C_est = (R_proc + R_growth) \cdot D_avg,m $$

  • C_estC\_est = Núcleos de CPU Estimados.
  • R_procR\_proc = A taxa de trabalhos pesados sendo processados por minuto.
  • R_growthR\_growth = A taxa de crescimento da sua fila jobManagerHeavyweightJobs por minuto.
  • D_avg,mD\_avg,m = A duração média de trabalhos pesados em minutos.

Esta fórmula calcula a sua taxa real de chegada de tarefas, somando as tarefas que o seu sistema está processando às tarefas que estão se acumulando na fila. Multiplicar essa carga total pela duração média da tarefa indica exatamente quantos núcleos são necessários para concluir todo o trabalho sem enfileiramento.

Fórmula 2: Previsão de um local novo ou futuro

Se você estiver configurando uma nova localização privada ou planejando adicionar mais monitores, use esta fórmula para prever suas necessidades com antecedência.

$$ C_est = N_mon \cdot D_avg,m \cdot \frac1P_avg,m $$

  • C_estC\_est = Núcleos de CPU Estimados.
  • N_monN\_mon = O número total de monitores pesados que você planeja executar.
  • D_avg,mD\_avg,m = A duração média de um trabalho pesado em minutos.
  • P_avg,mP\_avg,m = O período médio para monitores pesados em minutos (por exemplo, um monitor que é executado a cada 5 minutos tem P_avg,m=5P\_avg,m = 5).

Este cálculo parte dos princípios básicos para determinar a sua workload esperada: quantos monitores você tem, com que frequência eles são executados e quanto tempo levam para serem concluídos.

Fatores importantes de dimensionamento

Ao usar essas fórmulas, lembre-se de levar em conta estes fatores:

  • Duração do trabalho (D_avg,mD\_avg,m): Sua média deve incluir trabalhos que expiram (geralmente -3 minutos), pois eles mantêm um núcleo durante toda a sua duração.
  • Falhas e novas tentativas de trabalho: quando um monitor falha, ele é automaticamente repetido. Essas tentativas são trabalhos adicionais que aumentam a carga total. Um monitor que falha consistentemente e tenta novamente multiplica efetivamente seu período, impactando significativamente as taxas de transferência.
  • Escalonamento: além de adicionar mais núcleos a um host (escalonamento vertical), você pode implantar gerenciadores de tarefas adicionais da Sintéticos com a mesma chave de localização privada para balancear a carga de tarefas em vários ambientes (escalonamento horizontal).

É importante observar que um único Sintéticos Job Manager (SJM) tem um limite de taxas de transferência de aproximadamente 15 trabalhos pesados por minuto. Isso se deve a uma estratégia de segmentação interna que favorece a competição eficiente de trabalhos entre vários SJMs em relação ao número bruto de trabalhos processados por SJM. Se seus cálculos indicarem a necessidade de taxas de transferência mais altas, você deverá expandir implantando SJMs adicionais. Você pode verificar se sua fila de tarefas está crescendo para determinar se mais SJMs são necessários.

Adicionar mais SJMs com a mesma chave de localização privada oferece diversas vantagens:

  • Balanceamento de carga: Os trabalhos para localização privada são distribuídos em todos os SJMs disponíveis.
  • Proteção contra failover: se uma instância do SJM ficar inativa, outras poderão continuar processando trabalhos.
  • Taxas de transferência totais mais altas: As taxas de transferência totais para sua localização privada tornam-se a soma das taxas de transferência de cada SJM (por exemplo, dois SJMs fornecem até -30 trabalhos/minuto).

Consulta NRQL para diagnóstico

Você pode executar essas consultas no criador de consultas para obter as entradas para a fórmula de diagnóstico. Certifique-se de definir o intervalo de tempo para um período longo o suficiente para obter uma média estável.

1. Calcular a taxa de tarefas processadas por minuto (R_procR\_proc): Esta consulta contabiliza o número de tarefas não relacionadas a ping (pesadas) concluídas no último dia e mostra a taxa média por minuto.

FROM SyntheticCheck
SELECT rate(uniqueCount(id), 1 minute) AS 'job rate per minute'
WHERE location = 'YOUR_PRIVATE_LOCATION' AND type != 'SIMPLE'
SINCE 1 day ago

2. Encontre a taxa de crescimento da fila por minuto (R_growthR\_growth): Esta consulta calcula o crescimento médio por minuto da fila jobManagerHeavyweightJobs em um gráfico de série temporal. Uma linha acima de zero indica que a fila está crescendo, enquanto uma linha abaixo de zero significa que ela está diminuindo.

FROM SyntheticsPrivateLocationStatus
SELECT derivative(jobManagerHeavyweightJobs, 1 minute) AS 'queue growth rate per minute'
WHERE name = 'YOUR_PRIVATE_LOCATION'
TIMESERIES SINCE 1 day ago

Dica

Certifique-se de selecionar a conta onde existe a localização privada. É melhor visualizar essa consulta como uma série temporal porque a função derivada pode variar muito. O objetivo é obter uma estimativa da taxa de crescimento da fila por minuto. Play diferentes intervalos de tempo para ver o que funciona melhor.

3. Encontrar o número total de monitores de alta capacidade (N_monN\_mon): Esta consulta encontra a contagem única de monitores de alta capacidade.

FROM SyntheticCheck
SELECT uniqueCount(monitorId) AS 'monitor count'
WHERE location = 'YOUR_PRIVATE_LOCATION' AND type != 'SIMPLE'
SINCE 1 day ago

4. Encontrar a duração média do trabalho em minutos (D_avg,mD\_avg,m): Esta consulta encontra a duração média de execução de trabalhos concluídos que não sejam de ping e converte o resultado de milissegundos para minutos. executionDuration representa o tempo que o trabalho levou para ser executado no host.

FROM SyntheticCheck
SELECT average(executionDuration)/60e3 AS 'avg job duration (m)'
WHERE location = 'YOUR_PRIVATE_LOCATION' AND type != 'SIMPLE'
SINCE 1 day ago

5. Encontre o período médio do monitor de peso pesado (P_avg,mP\_avg,m): Se a fila jobManagerHeavyweightJobs da localização privada estiver crescendo, não será preciso calcular o período médio do monitor a partir dos resultados existentes. Isso precisará ser estimado a partir da lista de monitores na página Monitores Sintético. Certifique-se de selecionar a conta New Relic correta e talvez seja necessário filtrar por privateLocation.

Dica

Monitores Sintéticos podem existir em múltiplas subcontas. Se você tiver mais subcontas do que as que podem ser selecionadas no criador de consulta, escolha as contas com mais monitores.

Nota sobre monitores de ping e a fila pingJobs

Os monitores de ping são diferentes. São trabalhos leves que não consomem um núcleo de CPU completo cada. Em vez disso, eles usam uma fila separada (pingJobs) e são executados em um pool de threads de trabalho.

Embora consumam menos recursos, um alto volume de tarefas de ping, especialmente aquelas com falhas, ainda pode causar problemas de desempenho. Tenha estes pontos em mente:

  • Modelo de recursos: os trabalhos de ping utilizam threads de trabalho, não núcleos de CPU dedicados. O cálculo de núcleo por trabalho não se aplica a eles.
  • Tempo limite e nova tentativa: uma tarefa de ping com falha pode ocupar um thread de trabalho por até 60 segundos. Primeiro, ele tenta uma solicitação HTTP HEAD (tempo limite de 30 segundos). Se isso falhar, ele tenta imediatamente com uma solicitação HTTP GET (outro tempo limite de 30 segundos).
  • Dimensionamento: embora a fórmula de dimensionamento seja diferente, os mesmos princípios se aplicam. Para lidar com um grande volume de trabalhos de ping e evitar que a fila pingJobs cresça, talvez seja necessário aumentar e/ou diminuir a escala. Aumentar a escala significa aumentar os recursos de CPU e memória por host ou namespace. Escalar significa adicionar mais instâncias do tempo de execução do ping. Isso pode ser feito implantando mais gerenciadores de tarefas em mais hosts, em mais namespaces ou até mesmo dentro do mesmo namespace. Como alternativa, o ping-runtime no Kubernetes permite que você defina um número maior de réplicas por implantação.

Considerações sobre dimensionamento para Kubernetes e OpenShift

Cada tempo de execução usado pelo gerenciador de tarefas Kubernetes e do OpenShift Sintético pode ser dimensionado independentemente definindo valores no gráfico do helm. O node-api-runtime e o node-browser-runtime são dimensionados independentemente usando uma combinação das configurações parallelism e completions.

  • A configuração parallelism controla quantos pods de um determinado runtime são executados simultaneamente.
  • A configuração completions controla quantos pods devem ser concluídos antes que o CronJob inicie outro Job Kubernetes para esse runtime.

Melhores práticas para o dimensionamento da sua implantação

Muitas vezes não é possível calcular com precisão os valores de paralelismo e conclusões necessários porque a duração média vista no New Relic pode não ser precisa, especialmente se o local privado existente não estiver funcionando bem. Siga esta abordagem prática para ajustar o paralelismo e as conclusões. As equações abaixo podem ser usadas para obter valores aproximados como ponto de partida.

1. Estimar conclusões e paralelismo

Faça o possível para estimar a duração média de execução e o número de jobs por 5 minutos. Isso fornece um ponto de partida aproximado para a próxima etapa, que envolverá tentativa e erro para ajustar os valores de paralelismo e conclusões em um cluster em funcionamento. Certifique-se de escalá-los proporcionalmente, por exemplo, indo dos padrões de 1 e 6 para 10 e 60.

Conclusões Estimadas: Isso determina quanto tempo sua carga de jobs de 5 minutos levará para ser concluída.

-- Get average execution duration in minutes
FROM SyntheticCheck
SELECT average(executionDuration / 60e3) AS 'Avg Duration (min)'
WHERE type != 'SIMPLE' AND location = 'YOUR_PRIVATE_LOCATION'
SINCE 1 hour ago

$$ Conclusões = \frac5D_avg,m $$

Onde D_avg,mD\_avg,m é a sua duração média de execução do job em minutos.

Paralelismo Estimado: Isso determina quantos workers (pods) você precisa executar simultaneamente para lidar com sua carga de trabalho de 5 minutos.

-- Get jobs per 5 minutes
FROM SyntheticCheck
SELECT rate(uniqueCount(id), 5 minutes) AS 'Number of monitor jobs per 5 minutes'
WHERE type != 'SIMPLE' AND location = 'YOUR_PRIVATE_LOCATION'
SINCE 1 hour ago

$$ P_est = \fracN_mCompletions $$

Onde N_mN\_m é o seu número de jobs por 5 minutos. Este valor P_estP\_est é o seu paralelismo estimado.

2. Execute um deploy do Helm

Execute um deploy do Helm com valores estimados de paralelismo e conclusões, e sua melhor estimativa para ping-runtime.replicaCount considerando o número de núcleos de CPU por nó e o número de monitores de ping que precisam ser executados por minuto.

3. Monitore o crescimento da fila

Com os monitores sintéticos configurados para enviar tarefas para o local privado, verifique o crescimento da fila em um gráfico de linha de série temporal para pingJobs e jobManagerHeavyweightJobs.

  • Se a fila pingJobs tiver uma inclinação positiva, aumente ping-runtime.replicaCount e reimplante.
  • Se a fila jobManagerHeavyweightJobs tiver uma inclinação positiva, aumente parallelism e completions proporcionalmente até que a fila pare de crescer (inclinação negativa).

Uma inclinação negativa indica que o gerenciador de jobs tem paralelismo suficiente para lidar com a demanda do job. Eventualmente atingirá zero com uma inclinação negativa.

FROM SyntheticsPrivateLocationStatus
SELECT average(jobManagerHeavyweightJobs) AS 'Heavyweight Queue Growth', average(pingJobs) AS 'Ping Queue Growth'
WHERE name = 'YOUR_PRIVATE_LOCATION'
SINCE 1 day ago TIMESERIES

4. Ajuste com base no estado de execução do pod

Com a fila diminuindo ou zerada, verifique se há pods node-api-runtime e node-browser-runtime que estejam em um estado "running" há mais de 10 minutos. Isso indica que o paralelismo está definido muito alto e há mais pods do que o necessário.

Para evitar o desperdício desnecessário de recursos, diminua parallelism e completions para reduzir a idade de cada pod de runtime "em execução". Se o objetivo for uma idade de job do Kubernetes de 5 minutos, os pods de runtime devem estar em estado de execução por menos de 5 minutos, o que significa que o pod foi criado, recebeu rapidamente um job para executar e foi concluído.

5. Escale horizontalmente se necessário

Se a fila não estiver diminuindo, mas houver muitos pods em um estado "running" por mais de 10 minutos, é provável que o gerenciador de jobs esteja atingindo seu gargalo de desempenho. A próxima etapa é reduzir o paralelismo e escalar horizontalmente com uma ou mais implantações adicionais.

Por exemplo, com parallelism: 100, completions: 600 a fila ainda está crescendo, mas há muitos pods em um estado "running" há mais de 10 minutos, e a idade do Job do Kubernetes é de 20 minutos ... defina parallelism: 50, completions: 200 e escale horizontalmente (out) adicionando 2 deployments adicionais. Isso resulta em um total de 150 pods paralelos e deve reduzir a duração do job do K8s para menos de 20 minutos, reduzindo também o número de pods "running" de longa duração. Busque uma idade de job do K8s de 5 a 10 minutos.

Para mais informações sobre como adicionar implantações, consulte Escalonamento horizontal com múltiplas implantações do SJM.

Dica

Você pode usar a seguinte consulta para ajudar a determinar se precisa escalar horizontalmente.

Observação: Monitores podem existir em várias subcontas.

-- monitors per minute per SJM
FROM SyntheticCheck SELECT
round(rate(uniqueCount(id), 1 minute)/uniqueCount(minionId),0.1) AS 'heavy jobs per minute per SJM',
uniqueCount(minionId) AS 'number of SJMs (namespaces)',
round(rate(uniqueCount(id), 1 minute),0.1) AS 'heavy jobs per minute total'
WHERE minionContainerSystem = 'KUBERNETES' AND minionDeploymentMode = 'private' AND location = 'YOUR_PRIVATE_LOCATION' AND type != 'SIMPLE' FACET location SINCE 1 hour ago TIMESERIES

Dica

Reduzir o número de ciclos de jobs do K8s também pode melhorar o desempenho. À medida que cada ciclo atinge o número definido de conclusões, há cada vez menos pods "em execução" para assumir novos jobs do Synthetics. Por exemplo, com completions definido como 200 e parallelism definido como 50, temos inicialmente 50 pods em execução, mas isso começa a diminuir à medida que passamos de 150 completions. Com 199 conclusões, resta apenas 1 pod em execução.

Definir um valor maior para completions não é uma má ideia, mas pode levar a eventos de aviso no K8s sobre TooManyMissedTimes para o cronjob.

Expandindo com múltiplas implantações SJM

Para escalar além das taxas de transferência de aproximadamente 15 tarefas/minuto de um único SJM, você deve instalar várias versões separadas Helm do SJM.

Importante

Não use réplicas para escalar o pod do job manager. A arquitetura SJM requer uma relação 1:1 entre um pod de runtime e seu pod SJM pai. Se os pods de runtime enviarem resultados de volta para a réplica do SJM incorreta (por exemplo, por meio de um serviço do Kubernetes), esses resultados serão perdidos. No entanto, ping-runtime.replicaCount pode ser usado.

A estratégia correta é implantar múltiplos SJMs instância, cada um como sua própria versão Helm. Cada SJM competirá por trabalhos da mesma localização privada, fornecendo balanceamento de carga, proteção contra failover e um aumento nas taxas de transferência totais de trabalho.

Estratégia de escalonamento horizontal

Se você precisar escalar horizontalmente, pode simplificar a manutenção tratando cada implantação do SJM como uma unidade de capacidade fixa.

  1. Definir Paralelismo: Para cada SJM, defina parallelism para o mesmo máximo que um único SJM pode suportar sem criar muitos pods de runtime "em execução" de longa duração. Isso maximiza o throughput potencial de cada SJM sem desperdiçar recursos.
  2. Definir Conclusões: Para cada SJM, defina completions para o mesmo valor fixo também. Ajuste conforme necessário para atingir uma idade de job do Kubernetes de 5 minutos por runtime, ou seja, node-browser-runtime e node-api-runtime.
  3. Instalar Releases: Instale quantas releases do Helm separadas forem necessárias para lidar com sua demanda total de jobs, ou seja, zerar a fila ou obter uma inclinação negativa no gráfico de linha.
  4. Monitore e adicione: Monitore a fila de tarefas da localização privada. Se começar a aumentar (inclinação positiva), basta instalar outra release do Helm (por exemplo, sjm-delta) usando a mesma configuração fixa.

Ao fixar o paralelismo e as conclusões em valores estáticos, aumentar ou diminuir a capacidade torna-se um processo mais simples de adicionar ou remover releases do Helm. Isso ajuda a evitar o desperdício de recursos do cluster com um valor de paralelismo superior ao que o SJM pode utilizar efetivamente.

Exemplo de instalação

Ao instalar várias versões do SJM, você deve fornecer um nome exclusivo para cada versão. Todas as instâncias devem ser configuradas com a mesma chave de localização privada.

É altamente recomendável definir o fullnameOverride para criar nomes de recursos mais curtos e fáceis de gerenciar. Por exemplo, para instalar dois SJMs chamados sjm-alpha e sjm-beta no namespace newrelic (ambos usando o mesmo values.yaml com seu paralelismo e autocompletares fixos):

bash
$
# Install the first SJM deployment
$
helm upgrade --install sjm-alpha newrelic/synthetics-job-manager \
>
-n newrelic \
>
-f values.yaml \
>
--set fullnameOverride=sjm-alpha \
>
--set ping-runtime.fullnameOverride=sjm-alpha-ping \
>
--set node-api-runtime.fullnameOverride=sjm-alpha-api \
>
--set node-browser-runtime.fullnameOverride=sjm-alpha-browser
bash
$
# Install the second SJM deployment to add capacity
$
helm upgrade --install sjm-beta newrelic/synthetics-job-manager \
>
-n newrelic \
>
-f values.yaml \
>
--set fullnameOverride=sjm-beta
>
--set ping-runtime.fullnameOverride=sjm-beta-ping \
>
--set node-api-runtime.fullnameOverride=sjm-beta-api \
>
--set node-browser-runtime.fullnameOverride=sjm-beta-browser

Você pode continuar este padrão (sjm-charlie, sjm-delta, etc.) para quantos SJMs forem necessários para impedir que a fila de trabalho cresça.

Copyright © 2026 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.