• EnglishEspañol日本語한국어Português
  • ログイン今すぐ開始

この機械翻訳は、参考として提供されています。

英語版と翻訳版に矛盾がある場合は、英語版が優先されます。詳細については、このページを参照してください。

問題を作成する

OpenLIT による LLM オブザーバビリティ

OpenTelemetry一般的なアプリケーション データ (トレース、メトリクス、ログ) を収集するための強力な標準を提供しますが、AI モデルに固有の主要パフォーマンス指標 (KPI) を取得する機能がありません。 パフォーマンス追跡、ローソンの使用状況、コスト、LLM プロンプトと応答の形式でのユーザー インタラクション データなどの重要なメトリクスは、効果的な LLM アプリケーション監視とトラブルシューティングに不可欠です。

LLM の監視におけるこのギャップを埋めるために、OpenLIT がカスタマイズされたソリューションとして登場しました。 OpenLIT は、OpenTelemetry フレームワーク上に構築されており、スムーズに統合され、機能を拡張するオープンソース ツールです。 OpenAI、Anthropic、Pinecone、LangChain など、広く使用されている AI フレームワークをサポートしています。 さらに、OpenTelemetry ベースの GPU 監視機能をすぐに使用できます。

OpenLIT の主な利点:

  • LLM と VectorDB のパフォーマンスの高度な監視: OpenLIT は、LLM と VectorDB の使用状況の詳細なパフォーマンスとコスト分析のためのトレースとメトリクスを自動的に生成し、リソースの使用を最適化し、運用環境などのさまざまな環境にわたって効率的に拡張するのに役立ちます。

  • カスタムおよび微調整されたモデルのコスト追跡: カスタム JSON ファイルを通じて正確なコスト追跡が可能になり、正確な予算編成とプロジェクト固有のニーズとの調整が可能になります。

  • OpenTelemetryネイティブ SDK とベンダーニュートラル SDK : OpenLIT はOpenTelemetryのネイティブ サポートを使用して構築されており、プロジェクトとシームレスにブレンドできます。 このベンダーニュートラルのアプローチは統合への障壁を減らし、OpenLIT をさらに複雑にするのではなく、ソフトウェアスタックの直感的な部分にします。

OpenLIT により、開発者は OpenTelemetry の強みを活用しながら、効果的な LLM 監視とパフォーマンスの最適化に必要な追加機能を獲得できるようになります。

始める前に

OpenLIT で LLM モデルを計画する

を使用したOpenTelemetry ベースのAPM 監視の一般的なセットアップ手順に従います。New Relic

トレースとメトリクスのルート

New Relic OpenTelemetryネイティブでサポートしているため、トレースとメトリクスをNew Relicのエンドポイントにルーティングし、 APIキーを設定するだけです。

次のコマンドを実行して、 OpenTelemetry Protocol (略して OTLP) エクスポーターがNew Relic OTLP エンドポイントにデータを送信できるようにします。

OTEL_EXPORTER_OTLP_ENDPOINT = https://otlp.nr-data.net:443
OTEL_EXPORTER_OTLP_HEADERS = "api-key=YOUR_NEWRELIC_LICENSE_KEY"

LangChain を使用した OpenAI LLM モデルの例をご覧ください。

import openlit
import os
from langchain_openai import ChatOpenAI
os.environ['OPENAI_API_KEY'] = 'OPENAI_API_KEY'
os.environ['OTEL_EXPORTER_OTLP_ENDPOINT'] = 'https://otlp.nr-data.net:443'
os.environ['OTEL_EXPORTER_OTLP_HEADERS'] = 'api-key=YOUR_NEWRELIC_LICENSE_KEY'
openlit.init()
def add_prompt_context():
llm = ChatOpenAI(
model="gpt-3.5-turbo",
temperature=0)
chain = llm
return chain
def prep_prompt_chain():
return add_prompt_context()
def prompt_question():
chain = prep_prompt_chain()
return chain.invoke("explain the business of company Newrelic and it's advantages in a max of 50 words")
if __name__ == "__main__":
print(prompt_question())

NewRelicUIでデータを表示する

アプリがインストゥルメント処理され、データをNew Relicにエクスポートするように設定されたら、 New Relic UIでデータを見つけることができるようになります。次の手順に従って、LLM オブザーバビリティの事前構築済みダッシュボードをインポートできます。

  1. one.newrelic.com > All capabilities > Dashboardsに移動します。

  2. 右上隅にあるImport dashboardをクリックします。

  3. ここで提供されるダッシュボード JSON をコピーして貼り付けます。

  4. ダッシュボードのアカウントと権限設定を選択します。 一度設定したアカウントを変更することはできませんが、権限はいつでも変更できます。

  5. Import dashboardをクリックします。

    エンティティが見つからず、NRQL でデータが表示されない場合は、 「OTLP トラブルシューティング」を参照してください。

    このドキュメントはインストールの役に立ちましたか?

Copyright © 2024 New Relic株式会社。

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.