論文の概要: Inductive-Deductive Strategy Reuse for Multi-Turn Instructional Dialogues
- arxiv url: http://arxiv.org/abs/2404.11095v2
- Date: Sun, 29 Sep 2024 12:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:01:38.197252
- Title: Inductive-Deductive Strategy Reuse for Multi-Turn Instructional Dialogues
- Title(参考訳): インダクティブ・デダクティブ・ストラテジー・リユース
- Authors: Jiao Ou, Jiayu Wu, Che Liu, Fuzheng Zhang, Di Zhang, Kun Gai,
- Abstract要約: 本稿では,ユーザシミュレータが多様かつ詳細な命令を提示するのを支援するために,複雑なルールを明示的に捉えることを提案する。
実験結果から,本手法は多種多様かつ詳細な命令を生成可能であることが示された。
- 参考スコア(独自算出の注目度): 15.959842501166511
- License:
- Abstract: Aligning large language models (LLMs) with human expectations requires high-quality instructional dialogues, which usually require instructions that are diverse and in-depth. Existing methods leverage two LLMs to interact for automatic collection: one simulating a user to pose instructions, and the other acting as a system agent to respond. However, these user simulators struggle to model the rules behind how dialogues can pose different instructions without explicit guidance, resulting in general instructions. In this paper, we propose to explicitly capture the complex rules to help the user simulator pose diverse and in-depth instruction. Specifically, we first induce high-level instruction strategies from various real instruction dialogues serving as rules. Afterward, different possible strategies are applied to the newly given dialogue scenario deductively to pose various instructions. Experimental results show that our method can generate diverse and in-depth instructions. The constructed multi-turn instructional dialogues can outperform competitive baselines on the downstream chat model.
- Abstract(参考訳): 人間の期待に応じて大きな言語モデル(LLM)を調整するには、高品質な命令対話が必要であり、通常は多様で深い命令を必要とする。
既存のメソッドは2つのLLMを使って自動コレクションに対話する: 1つはユーザーをシミュレートして命令をポーズさせ、もう1つはシステムエージェントとして応答する。
しかしながら、これらのユーザシミュレータは、対話が明示的なガイダンスなしで異なる指示を提示する方法の裏にあるルールをモデル化するのに苦労し、結果として一般的な指示がもたらされる。
本稿では,ユーザシミュレータが多様かつ詳細な命令を提示するのを支援するために,複雑なルールを明示的に捉えることを提案する。
具体的には,ルールとして機能する様々な実命令対話から,まずハイレベルな命令戦略を導出する。
その後、新たに与えられた対話シナリオに異なる可能な戦略を適用して、様々な指示を提示する。
実験結果から,本手法は多種多様かつ詳細な命令を生成可能であることが示された。
構築されたマルチターン・インストラクショナル・ダイアログは、下流のチャットモデルで競合するベースラインより優れている。
関連論文リスト
- DuetSim: Building User Simulator with Dual Large Language Models for Task-Oriented Dialogues [7.765092134290888]
本稿では,大規模言語モデルを活用することで,タスク指向対話の複雑な要求に対処する新しいフレームワークであるDuetSimを紹介する。
DuetSim は2つの LLM をタンデムで採用することで従来の手法とは異なっている。
提案手法の有効性を,MultiWOZデータセットを用いた広範囲な実験により検証し,応答品質と正しさの向上を強調した。
論文 参考訳(メタデータ) (2024-05-16T06:24:31Z) - Few-shot Dialogue Strategy Learning for Motivational Interviewing via Inductive Reasoning [21.078032718892498]
本稿では,ユーザに対して肯定的なライフスタイル変化を取り入れるための対話システム構築の課題について考察する。
専門家によるデモンストレーションから,自然言語帰納規則の形で会話戦略を学習し,適用可能なフレームワークであるDIITを提案する。
論文 参考訳(メタデータ) (2024-03-23T06:03:37Z) - CESAR: Automatic Induction of Compositional Instructions for Multi-turn
Dialogs [27.092581945832713]
本稿では,多数のダイアログタスクを同じ形式で統一する新しいフレームワークであるCESARを提案する。
命令ベースのダイアログタスクのベンチマークであるInstructDialにCESARを適用する。
論文 参考訳(メタデータ) (2023-11-29T06:02:16Z) - Context-dependent Instruction Tuning for Dialogue Response Generation [61.21790201307179]
最近の言語モデルは、微調整中にタスク入力に命令を組み込むことで、自然言語計算タスクにおいて顕著なパフォーマンスを実現している。
マルチターン対話のためのコンテキストベース命令微調整フレームワークを提案する。
評価中、モデルは以前の文脈に基づいて指示を生成し、応答を自己導出する。
論文 参考訳(メタデータ) (2023-11-13T01:25:30Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Enhancing Large Language Models Against Inductive Instructions with
Dual-critique Prompting [55.15697111170836]
本稿では,大規模言語モデル(LLM)のテクスト誘導的指示に対する行動を明らかにするとともに,その真しさと有用性を高める。
広範囲な人的・自動的な評価の結果,帰納的命令処理において LLM に共通する脆弱性が発見された。
異なる帰納的スタイルがモデルに同じエラーを識別する能力に影響を及ぼし、基礎となる仮定の複雑さがモデルの性能にも影響を及ぼす。
論文 参考訳(メタデータ) (2023-05-23T06:38:20Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Dialogue-oriented Pre-training [70.03028879331339]
一般的なプレーンテキスト上での会話特徴をシミュレートする3つの手法を提案する。
Dialog-PrLMは3つの公開マルチターン対話データセットに基づいて微調整される。
論文 参考訳(メタデータ) (2021-06-01T12:02:46Z) - Multi-Agent Task-Oriented Dialog Policy Learning with Role-Aware Reward
Decomposition [64.06167416127386]
本稿では,システムとユーザの両方をダイアログエージェントとみなすマルチエージェントダイアログポリシー学習を提案する。
2人のエージェントが互いに相互作用し、同時に一緒に学習されます。
その結果,本手法がシステムポリシとユーザポリシを同時に構築できることが示唆された。
論文 参考訳(メタデータ) (2020-04-08T04:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。