論文の概要: NeMo Guardrails: A Toolkit for Controllable and Safe LLM Applications
with Programmable Rails
- arxiv url: http://arxiv.org/abs/2310.10501v1
- Date: Mon, 16 Oct 2023 15:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 13:23:41.836470
- Title: NeMo Guardrails: A Toolkit for Controllable and Safe LLM Applications
with Programmable Rails
- Title(参考訳): NeMo Guardrails: Programmable Railsを使った制御および安全なLLMアプリケーションのためのツールキット
- Authors: Traian Rebedea, Razvan Dinu, Makesh Sreedhar, Christopher Parisien,
Jonathan Cohen
- Abstract要約: NeMo Guardrailsは、プログラマブルなガードレールを対話システムに追加するためのオープンソースのツールキットである。
NeMo Guardrailsは、対話管理にインスパイアされたランタイムを使用することで、開発者はLLMアプリケーションにプログラム可能なレールを追加することができる。
- 参考スコア(独自算出の注目度): 2.0776016340669603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: NeMo Guardrails is an open-source toolkit for easily adding programmable
guardrails to LLM-based conversational systems. Guardrails (or rails for short)
are a specific way of controlling the output of an LLM, such as not talking
about topics considered harmful, following a predefined dialogue path, using a
particular language style, and more. There are several mechanisms that allow
LLM providers and developers to add guardrails that are embedded into a
specific model at training, e.g. using model alignment. Differently, using a
runtime inspired from dialogue management, NeMo Guardrails allows developers to
add programmable rails to LLM applications - these are user-defined,
independent of the underlying LLM, and interpretable. Our initial results show
that the proposed approach can be used with several LLM providers to develop
controllable and safe LLM applications using programmable rails.
- Abstract(参考訳): NeMo Guardrailsは、LLMベースの会話システムにプログラム可能なガードレールを容易に追加するためのオープンソースのツールキットである。
guardrails(または簡単に言うとrails)はllmの出力を制御するための特定の方法であり、有害と思われるトピックについて話さない、事前定義された対話パスに従う、特定の言語スタイルを使用する、などである。
llmプロバイダや開発者がトレーニング時に特定のモデルに組み込むガードレールを、例えばモデルアライメントを使って追加するためのメカニズムがいくつかある。
異なることに、対話管理にインスパイアされたランタイムを使用することで、開発者はLLMアプリケーションにプログラム可能なレールを追加することができる。
提案手法は,プログラム可能なレールを用いて制御可能かつ安全なLLMアプリケーションを開発するために,複数のLLMプロバイダと併用可能であることを示す。
関連論文リスト
- Sketch: A Toolkit for Streamlining LLM Operations [51.33202045501429]
大規模言語モデル(LLM)は大きな成功を収めた。
アウトプットフォーマットの柔軟性は、モデルのアウトプットを制御および活用する上での課題を引き起こします。
スケッチ(Sketch)は、多種多様な分野にわたるLCM操作を合理化するための革新的なツールキットである。
論文 参考訳(メタデータ) (2024-09-05T08:45:44Z) - LoRA-Guard: Parameter-Efficient Guardrail Adaptation for Content Moderation of Large Language Models [15.900125475191958]
大規模言語モデル(LLM)のコンテンツモデレーションのための安全アライメントの代替としてガードレールが登場した。
LLMとガードレールモデル間の知識共有に依存するパラメータ効率の高いガードレール適応法であるLoRA-Guardを導入する。
LoRA-Guardは100-1000倍のパラメータオーバヘッドで既存の手法より優れ、精度を保ちながらオンデバイスコンテンツのモデレーションを実現している。
論文 参考訳(メタデータ) (2024-07-03T10:38:40Z) - Parrot: Efficient Serving of LLM-based Applications with Semantic Variable [11.894203842968745]
Parrotは、LLMベースのアプリケーションのエンドツーエンドエクスペリエンスに焦点を当てたサービスシステムである。
Semantic Variableはリクエストのプロンプトで入出力変数に注釈を付け、複数のLLMリクエストを接続する際にデータパイプラインを生成する。
論文 参考訳(メタデータ) (2024-05-30T09:46:36Z) - Let Me Do It For You: Towards LLM Empowered Recommendation via Tool Learning [57.523454568002144]
大きな言語モデル(LLM)は、常識的な推論と外部ツールの活用の能力を示している。
ツール学習を通じてLLMを活用したレコメンデーションのためのフレームワークであるToolRecを紹介する。
属性の粒度を探索するプロセスとして推薦プロセスを定式化する。
属性指向ツールには,ランクツールと検索ツールの2種類がある。
論文 参考訳(メタデータ) (2024-05-24T00:06:54Z) - Plan-Grounded Large Language Models for Dual Goal Conversational
Settings [7.694972908311347]
ユーザインストラクションに従うための大規模言語モデルのトレーニングは、LLMに人間と整合しながら、流動的に会話できる十分な能力を供給することが示されている。
しかし、LLMが混合開始型環境でどのように計画的な会話を導いてくれるかは、完全には明らかではない。
本稿では,手続き的計画に基づく対話を基盤とし,対話の主導権を握り,システムの動作にガードレールを課す新しいLLMを提案する。
論文 参考訳(メタデータ) (2024-02-01T22:56:39Z) - MLLM-Tool: A Multimodal Large Language Model For Tool Agent Learning [38.610185966889226]
本稿では,オープンソースの大規模言語モデルとマルチモーダルエンコーダを組み合わせたMLLM-Toolを提案する。
学習したLLMはマルチモーダルな入力命令を意識し、関数マッチングツールを正しく選択することができる。
実験の結果,MLLM-Toolはマルチモーダル命令に適したツールを推奨できることがわかった。
論文 参考訳(メタデータ) (2024-01-19T14:44:37Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。