論文の概要: Chatbot Meets Pipeline: Augment Large Language Model with Definite
Finite Automaton
- arxiv url: http://arxiv.org/abs/2402.04411v1
- Date: Tue, 6 Feb 2024 21:14:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 17:57:33.840488
- Title: Chatbot Meets Pipeline: Augment Large Language Model with Definite
Finite Automaton
- Title(参考訳): ChatbotがPipelineを発表 - 有限オートマトンによる大規模言語モデルの拡張
- Authors: Yiyou Sun and Junjie Hu and Wei Cheng and Haifeng Chen
- Abstract要約: 有限有限オートマトン拡張大言語モデル(DFA-LLM)
大規模言語モデル(LLM)を用いた対話エージェントの能力向上を目的とした新しいフレームワーク
- 参考スコア(独自算出の注目度): 48.352768394244436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces the Definite Finite Automaton augmented large language
model (DFA-LLM), a novel framework designed to enhance the capabilities of
conversational agents using large language models (LLMs). Traditional LLMs face
challenges in generating regulated and compliant responses in special scenarios
with predetermined response guidelines, like emotional support and customer
service. Our framework addresses these challenges by embedding a Definite
Finite Automaton (DFA), learned from training dialogues, within the LLM. This
structured approach enables the LLM to adhere to a deterministic response
pathway, guided by the DFA. The advantages of DFA-LLM include an interpretable
structure through human-readable DFA, context-aware retrieval for responses in
conversations, and plug-and-play compatibility with existing LLMs. Extensive
benchmarks validate DFA-LLM's effectiveness, indicating its potential as a
valuable contribution to the conversational agent.
- Abstract(参考訳): 本稿では,大規模言語モデル(llm)を用いた対話型エージェントの能力向上を目的とした新しいフレームワークである,有限オートマトン拡張大言語モデル(dfa-llm)を提案する。
従来のllmは、感情的サポートやカスタマサービスなど、所定のレスポンスガイドラインを備えた特別なシナリオで、規制された応答とコンプライアンス応答を生成する上での課題に直面している。
我々のフレームワークは、LLM内のトレーニング対話から学んだDFA(Definite Finite Automaton)を組み込むことによって、これらの課題に対処する。
この構造的アプローチにより、LDMはDFAによって導かれる決定論的応答経路に従うことができる。
DFA-LLMの利点は、人間可読なDFAによる解釈可能な構造、会話における応答の文脈認識検索、既存のLLMとのプラグアンドプレイ互換性である。
大規模なベンチマークでは、DFA-LLMの有効性が検証され、会話エージェントに重要な貢献をする可能性を示している。
関連論文リスト
- Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - When Emotional Stimuli meet Prompt Designing: An Auto-Prompt Graphical Paradigm [43.2625101868969]
本稿では,大規模言語モデル (LLM) の素早い単語を要約する。
次に、刺激とフレームワークのプロンプトを組み合わせたオートプロンプトグラフィカルパラダイム(APGP)を提案する。
このフレームワークは、感情刺激因子の自動生成と考慮を含む。
論文 参考訳(メタデータ) (2024-04-16T12:19:08Z) - LLMCheckup: Conversational Examination of Large Language Models via Interpretability Tools and Self-Explanations [26.340786701393768]
対話の形で説明を提供する解釈可能性ツールは,ユーザの理解を高める上で有効であることを示す。
しかしながら、対話ベースの説明のための現在のソリューションは、しばしば外部ツールやモジュールを必要とし、設計されていないタスクに簡単に転送できない。
ユーザがその振る舞いについて,最先端の大規模言語モデル(LLM)とチャットできる,アクセスしやすいツールを提案する。
論文 参考訳(メタデータ) (2024-01-23T09:11:07Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Leveraging Large Language Models in Conversational Recommender Systems [9.751217336860924]
Conversational Recommender System (CRS)は、リアルタイムのマルチターン対話を通じてシステムと対話できるようにすることにより、ユーザに対して透明性とコントロールを向上する。
大言語モデル(LLM)は、自然に会話し、世界知識と常識推論を言語理解に組み込むという前例のない能力を示した。
論文 参考訳(メタデータ) (2023-05-13T16:40:07Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。