• 로그인지금 시작하기

사용자의 편의를 위해 제공되는 기계 번역입니다.

영문본과 번역본이 일치하지 않는 경우 영문본이 우선합니다. 보다 자세한 내용은 이 페이지를 방문하시기 바랍니다.

문제 신고

대규모 Kubernetes 환경에서 Prometheus OpenMetrics 통합 구성

CPU 및 메모리 제한 및 요청은 모니터링되는 대상의 수와 각 대상에서 노출되는 메트릭의 수에 따라 달라질 수 있습니다. 예를 들어 지연 시간이 150ms 이고 scrape_duration 가 30초인 800 대상을 스크래핑하여 각각 1000 timeseries 을 노출하는 Prometheus OpenMetrics 통합은 RAM의 2.5CPU700MB 를 사용합니다.

대규모 환경에 대한 통합 구성

모니터링 중인 환경의 크기를 추정하려면 다음 쿼리를 실행하여 스크랩되는 대상 수를 확인하십시오.

SELECT latest(nr_stats_targets) FROM Metric WHERE clusterName = 'clustername' SINCE 30 MINUTES AGO TIMESERIES

수백 개의 대상을 스크랩해야 하는 대규모 환경에서 /metrics 엔드포인트의 지연 시간은 1초 미만이어야 합니다. 이 쿼리를 실행하여 다른 대상의 대기 시간을 확인하십시오. 이 쿼리는 Prometheus OpenMetrics 통합 에 의해 노출된 데이터를 검색하고 각 엔드포인트를 가져오는 데 필요한 시간을 보여줍니다.

SELECT average(nr_stats_integration_fetch_target_duration_seconds) FROM Metric WHERE clusterName = 'clustername' SINCE 30 MINUTES AGO FACET target LIMIT 30

모든 대상을 긁는 데 필요한 시간을 30초 미만으로 유지하려면 다음 구성을 사용하십시오.

대상

구성

각각 1000개의 측정항목이 있는 400개 미만의 대상

수정이 필요하지 않습니다. CPU 범위는 대략 0.1 - 1.5 코어이며 필요한 메모리는 256MB 이하여야 합니다.

400 < target < 1000, 각각 1000 메트릭 포함

작업자 수를 6-8 개로 늘려야 합니다. CPU 범위는 대략 1.5 - 3.5 코어이고 필요한 메모리는 약 100MB 입니다.

대상 > 1000, 각각 1000개의 측정항목 포함

근로자 수를 10명 이상으로 늘려야 합니다. CPU는 코어가 3.5 개 이상이고 필요한 메모리는 약 1GB 개 이상입니다.

Copyright © 2022 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.