論文の概要: Inductive-Deductive Strategy Reuse for Multi-Turn Instructional Dialogues
- arxiv url: http://arxiv.org/abs/2404.11095v2
- Date: Sun, 29 Sep 2024 12:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:01:38.197252
- Title: Inductive-Deductive Strategy Reuse for Multi-Turn Instructional Dialogues
- Title(参考訳): インダクティブ・デダクティブ・ストラテジー・リユース
- Authors: Jiao Ou, Jiayu Wu, Che Liu, Fuzheng Zhang, Di Zhang, Kun Gai,
- Abstract要約: 本稿では,ユーザシミュレータが多様かつ詳細な命令を提示するのを支援するために,複雑なルールを明示的に捉えることを提案する。
実験結果から,本手法は多種多様かつ詳細な命令を生成可能であることが示された。
- 参考スコア(独自算出の注目度): 15.959842501166511
- License:
- Abstract: Aligning large language models (LLMs) with human expectations requires high-quality instructional dialogues, which usually require instructions that are diverse and in-depth. Existing methods leverage two LLMs to interact for automatic collection: one simulating a user to pose instructions, and the other acting as a system agent to respond. However, these user simulators struggle to model the rules behind how dialogues can pose different instructions without explicit guidance, resulting in general instructions. In this paper, we propose to explicitly capture the complex rules to help the user simulator pose diverse and in-depth instruction. Specifically, we first induce high-level instruction strategies from various real instruction dialogues serving as rules. Afterward, different possible strategies are applied to the newly given dialogue scenario deductively to pose various instructions. Experimental results show that our method can generate diverse and in-depth instructions. The constructed multi-turn instructional dialogues can outperform competitive baselines on the downstream chat model.
- Abstract(参考訳): 人間の期待に応じて大きな言語モデル(LLM)を調整するには、高品質な命令対話が必要であり、通常は多様で深い命令を必要とする。
既存のメソッドは2つのLLMを使って自動コレクションに対話する: 1つはユーザーをシミュレートして命令をポーズさせ、もう1つはシステムエージェントとして応答する。
しかしながら、これらのユーザシミュレータは、対話が明示的なガイダンスなしで異なる指示を提示する方法の裏にあるルールをモデル化するのに苦労し、結果として一般的な指示がもたらされる。
本稿では,ユーザシミュレータが多様かつ詳細な命令を提示するのを支援するために,複雑なルールを明示的に捉えることを提案する。
具体的には,ルールとして機能する様々な実命令対話から,まずハイレベルな命令戦略を導出する。
その後、新たに与えられた対話シナリオに異なる可能な戦略を適用して、様々な指示を提示する。
実験結果から,本手法は多種多様かつ詳細な命令を生成可能であることが示された。
構築されたマルチターン・インストラクショナル・ダイアログは、下流のチャットモデルで競合するベースラインより優れている。
関連論文リスト
- Few-shot Dialogue Strategy Learning for Motivational Interviewing via Inductive Reasoning [21.078032718892498]
本稿では,ユーザに対して肯定的なライフスタイル変化を取り入れるための対話システム構築の課題について考察する。
専門家によるデモンストレーションから,自然言語帰納規則の形で会話戦略を学習し,適用可能なフレームワークであるDIITを提案する。
論文 参考訳(メタデータ) (2024-03-23T06:03:37Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - DSBERT:Unsupervised Dialogue Structure learning with BERT [4.171523157658394]
本稿では,Bert を用いた教師なし対話構造学習アルゴリズム DSBERT (Dialogue Structure BERT) を提案する。
従来のSOTAモデルであるVRNNとSVRNNとは異なり、BERTとAutoEncoderを組み合わせることで、コンテキスト情報を効果的に組み合わせることができる。
実験の結果,DSBERTは実構造に近い対話構造を生成でき,意味の異なる文を識別し,異なる隠れ状態にマッピングすることができることがわかった。
論文 参考訳(メタデータ) (2021-11-09T03:31:18Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z) - Advances in Multi-turn Dialogue Comprehension: A Survey [51.215629336320305]
自然言語を理解し、人間と対話するための訓練機械は、人工知能の解明と本質的なタスクである。
本稿では,対話理解タスクにおける対話モデリングの技術的視点から,過去の手法を概観する。
さらに,対話シナリオにおけるPrLMの強化に使用される対話関連事前学習手法を分類する。
論文 参考訳(メタデータ) (2021-10-11T03:52:37Z) - Advances in Multi-turn Dialogue Comprehension: A Survey [51.215629336320305]
対話モデリングの観点から,従来の手法を検討した。
対話理解タスクで広く使用されている対話モデリングの3つの典型的なパターンについて議論します。
論文 参考訳(メタデータ) (2021-03-04T15:50:17Z) - Rethinking Supervised Learning and Reinforcement Learning in
Task-Oriented Dialogue Systems [58.724629408229205]
本稿では、従来の教師あり学習とシミュレータなしの逆学習法を用いて、最先端のRL法に匹敵する性能を実現する方法を示す。
我々の主な目的は、教師あり学習で強化学習に勝ることではなく、タスク指向対話システムの最適化における強化学習と教師あり学習の役割を再考する価値を示すことである。
論文 参考訳(メタデータ) (2020-09-21T12:04:18Z) - Show Us the Way: Learning to Manage Dialog from Demonstrations [20.770386771370347]
本稿では,第8回ダイアログ・システム・チャレンジにおけるエンド・ツー・エンドマルチドメイン・ダイアログ・チャレンジ・トラックについて紹介する。
提案するダイアログシステムは,自然言語理解,対話状態追跡,対話管理,自然言語生成などの異なるコンポーネントを備えたパイプラインアーキテクチャを採用している。
システムの中心となるのは,Demonstrations からの深層Q-learning を用いて,専門家の助けを借りてダイアログポリシーを学習する強化学習アルゴリズムである。
論文 参考訳(メタデータ) (2020-04-17T08:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。