論文の概要: Dialogue Chain-of-Thought Distillation for Commonsense-aware
Conversational Agents
- arxiv url: http://arxiv.org/abs/2310.09343v1
- Date: Fri, 13 Oct 2023 18:17:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 22:23:26.974092
- Title: Dialogue Chain-of-Thought Distillation for Commonsense-aware
Conversational Agents
- Title(参考訳): コモンセンス対応会話エージェントの対話連鎖蒸留
- Authors: Hyungjoo Chae, Yongho Song, Kai Tzu-iunn Ong, Taeyoon Kwon, Minjin
Kim, Youngjae Yu, Dongha Lee, Dongyeop Kang, Jinyoung Yeo
- Abstract要約: 本稿では,対話連鎖推論(CoT)の枠組みを提案する。
DOCTOR, DialOgue Chain-of-Thught Reasonerについて紹介する。
我々は,DOCTORから高品質な理性を持つ対話エージェントの強化が,応答の質を著しく向上させることを示す実験を行った。
- 参考スコア(独自算出の注目度): 35.6393824052347
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human-like chatbots necessitate the use of commonsense reasoning in order to
effectively comprehend and respond to implicit information present within
conversations. Achieving such coherence and informativeness in responses,
however, is a non-trivial task. Even for large language models (LLMs), the task
of identifying and aggregating key evidence within a single hop presents a
substantial challenge. This complexity arises because such evidence is
scattered across multiple turns in a conversation, thus necessitating
integration over multiple hops. Hence, our focus is to facilitate such
multi-hop reasoning over a dialogue context, namely dialogue chain-of-thought
(CoT) reasoning. To this end, we propose a knowledge distillation framework
that leverages LLMs as unreliable teachers and selectively distills consistent
and helpful rationales via alignment filters. We further present DOCTOR, a
DialOgue Chain-of-ThOught Reasoner that provides reliable CoT rationales for
response generation. We conduct extensive experiments to show that enhancing
dialogue agents with high-quality rationales from DOCTOR significantly improves
the quality of their responses.
- Abstract(参考訳): 人間のようなチャットボットは、会話の中で暗黙の情報を効果的に理解し、応答するために、常識推論の使用を必要とする。
しかし、そのような一貫性と応答のインフォマティブ性を達成することは、非自明なタスクである。
大きな言語モデル(llm)であっても、単一のホップ内で重要なエビデンスを識別し集約する作業は大きな課題となる。
この複雑さは、そのような証拠が会話中の複数のターンに散在するため、複数のホップ上の統合を必要とする。
したがって、対話コンテキスト、すなわち対話連鎖思考(CoT)推論において、このようなマルチホップ推論を促進することに注力する。
そこで本研究では,LLMを信頼できない教師として活用し,アライメントフィルタによる一貫した有理性を選択的に蒸留する知識蒸留フレームワークを提案する。
さらに、応答生成のための信頼性の高い CoT 論理を提供する DialOgue Chain-of-ThOught Reasoner である DOCTOR について述べる。
我々は,DOCTORから高品質な理性を持つ対話エージェントの強化が応答の質を著しく向上することを示すため,広範囲な実験を行った。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Cohesive Conversations: Enhancing Authenticity in Multi-Agent Simulated Dialogues [17.38671584773247]
本稿では,Large Language Models (LLM) を用いたシミュレーションにおけるマルチエージェント対話の品質について検討する。
本稿では,発話誤りを検出し,訂正する新しいスクリーニング,診断,再生(SDR)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-13T14:24:45Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - PICK: Polished & Informed Candidate Scoring for Knowledge-Grounded
Dialogue Systems [59.1250765143521]
現在の知識接地対話システムは、生成された応答を人間に好まれる品質に合わせるのに失敗することが多い。
我々は,世代別再描画フレームワークであるPolseed & Informed Candidate Scoring (PICK)を提案する。
対話履歴に関連性を維持しつつ,より忠実な応答を生成するためのPICKの有効性を示す。
論文 参考訳(メタデータ) (2023-09-19T08:27:09Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Reason first, then respond: Modular Generation for Knowledge-infused
Dialogue [43.64093692715295]
大規模な言語モデルは、流動的な対話を生成できるが、しばしば事実の不正確さを幻覚させる。
本稿では,会話エージェントに知識を組み込むモジュールモデルであるKnowledge to Responseを提案する。
詳細な実験では、そのようなモデルが知識に基づく対話作業において幻覚を弱めることが判明した。
論文 参考訳(メタデータ) (2021-11-09T15:29:43Z) - Self-supervised Dialogue Learning for Spoken Conversational Question
Answering [29.545937716796082]
音声対話質問応答(SCQA)では、複数の会話を含む固定された音声文書を検索して分析することにより、対応する質問に対する回答を生成する。
本研究では,不整合判定,挿入検出,質問予測などの自己教師付き学習手法を導入し,コア参照の解決と対話のコヒーレンスを明確に把握する。
提案手法は,従来の事前学習言語モデルと比較して,より一貫性があり,意味があり,適切な応答を提供する。
論文 参考訳(メタデータ) (2021-06-04T00:09:38Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。