• EnglishEspañol日本語한국어Português
  • ログイン今すぐ開始

この機械翻訳は参考用に提供されます。

英語版と翻訳版に矛盾がある場合は、英語版が優先されます。詳細については、このページ を参照してください。

問題を作成する

Confluent Cloud & Kafka モニタリング用コレクター

OpenTelemetry Collector を使用して、Confluent Cloud 管理の Kafka デプロイメントに関するメトリクスを収集できます。コレクターは、テレメトリ データを収集、処理し、New Relic (または任意の可観測性バックエンド) にエクスポートする OpenTelemetry のコンポーネントです。

この統合は、OpenTelemetry コレクター内で Prometheus レシーバー構成を実行することによって機能します。これにより、 Confluent Cloud のメトリクス APIが取得され、そのデータが New Relic にエクスポートされます。

Confluent から Kafka メトリクスを収集し、New Relic にエクスポートするには、以下の手順を実行します。

セットアップが完了していることを確認してください

始める前に、次のものが必要です。 データを報告したいアカウントの。次のことも確認する必要があります。

サンプル リポジトリをダウンロードまたは複製する

このセットアップではサンプル コレクター設定を使用しているため、New Relic の OpenTelemetry Examples リポジトリをダウンロードしてください。インストールしたら、 Confluent Cloud サンプルディレクトリを開きます。詳細については、 READMEも確認してください。

環境変数を設定してコレクターを実行する

  • Confluent Cloud と New relic の両方の API キーとシークレット変数を.envファイルに設定します

  • Cluster_ID変数にターゲット Kafka クラスター ID を設定します。

  • (オプション) Confluent Cloud によって管理されるコネクタまたはスキーマ レジストリを監視するには、 collector.yamlファイル内の構成のコメントを解除し、対応する ID を.envファイルに設定します。

    bash
    $
    # Open the confluent cloud example directory
    $
    cd newrelic-opentelemetry-examples/other-examples/collector/confluentcloud
    $
    $
    # Set environment variables.
    $
    $
    # run the collector in docker
    $
    docker compose up

    ローカル変数情報

    変数

    説明

    ドキュメント

    NEW_RELIC_API_KEY

    New Relic インジェスト API キー

    API キーのドキュメント

    NEW_RELIC_OTLP_ENDPOINT

    デフォルトの米国 New Relic OTLP エンドポイントはhttps://otlp.nr-data.net:4318です

    OTLP エンドポイント構成ドキュメント

    CLUSTER_ID

    Confluent Cloud からのクラスターの ID

    list クラスター ID コマンドのドキュメント

    CONFLUENT_API_KEY

    クラウド API キー

    クラウド API キーのドキュメント

    CONFLUENT_API_SECRET

    クラウド API シークレット

    クラウド API キーのドキュメント

    CONNECTOR_ID

    (オプション) ここで ID を指定すると、Confluent コネクタを監視できます。

    コネクタ ID のリスト コマンドのドキュメント

    SCHEMA_REGISTRY_ID

    (オプション) ここで ID を指定することで、Confluent スキーマ レジストリを監視できます。

    コネクタ ID のリスト コマンドのドキュメント

New Relic でデータを表示する

Confluent Cloud データは、いくつかの異なる方法で表示できます。

  • New Relic マーケットプレイスに移動し、 Confluentを検索します。利用可能なダッシュボードはアカウントに直接インストールできます。
  • メトリック エクスプローラーに移動し、 confluent_kafkaをフィルターします。このデータは、任意のカスタム アラートまたはダッシュボードに追加できます。

コンフルエント クラウド メトリクス

この統合は、_ Confluent Cloud Metrics API 内のすべての エクスポート可能な メトリクスをカバーします。以下にエクスポート可能な_メトリクスの部分的なリストを示します。

名前

説明

confluent_kafka_server_received_bytes

ネットワークから受信した顧客データのバイト数の差分。各サンプルは、前のデータ サンプル以降に受信したバイト数です。カウントは 60 秒ごとにサンプリングされます。

confluent_kafka_server_sent_bytes

ネットワーク経由で送信された顧客データのバイト数の差分。各サンプルは、前のデータ ポイント以降に送信されたバイト数です。カウントは 60 秒ごとにサンプリングされます。

confluent_kafka_server_received_records

受信したレコードのデルタ カウント。各サンプルは、前のデータ サンプル以降に受信したレコードの数です。カウントは 60 秒ごとにサンプリングされます。

confluent_kafka_server_sent_records

送信されたレコードのデルタ カウント。各サンプルは、前のデータ ポイント以降に送信されたレコードの数です。カウントは 60 秒ごとにサンプリングされます。

confluent_kafka_server_retained_bytes

クラスターによって保持されている現在のバイト数。カウントは 60 秒ごとにサンプリングされます。

confluent_kafka_server_active_connection_count

アクティブな認証済み接続の数。

confluent_kafka_server_request_count

ネットワーク経由で受信したリクエストのデルタ カウント。各サンプルは、前のデータ ポイント以降に受信したリクエストの数です。60 秒ごとにサンプリングされるカウント。

confluent_kafka_server_partition_count

パーティション数

confluent_kafka_server_successful_authentication_count

成功した認証のデルタ カウント。各サンプルは、前のデータ ポイント以降の成功した認証の数です。60 秒ごとにサンプリングされるカウント。

confluent_kafka_server_consumer_lag_offsets

グループ メンバーのコミットされたオフセットとパーティションの最高水準点の間のラグ。

Copyright © 2024 New Relic株式会社。

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.