論文の概要: Inductive-Deductive Strategy Reuse for Multi-Turn Instructional Dialogues
- arxiv url: http://arxiv.org/abs/2404.11095v1
- Date: Wed, 17 Apr 2024 06:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 15:04:52.114334
- Title: Inductive-Deductive Strategy Reuse for Multi-Turn Instructional Dialogues
- Title(参考訳): インダクティブ・デダクティブ・ストラテジー・リユース
- Authors: Jiao Ou, Jiayu Wu, Che Liu, Fuzheng Zhang, Di Zhang, Kun Gai,
- Abstract要約: 既存の手法は、実際の命令対話を学習目標とし、ユーザシミュレータを微調整して、命令をポーズさせる。
本稿では,命令戦略の再利用による複雑な対話フローの明示的モデリングを提案する。
実験結果から,本手法は対話履歴に対して,多種多様で深い,洞察に富んだ指示を生成できることが示唆された。
- 参考スコア(独自算出の注目度): 15.959842501166511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aligning large language models (LLMs) with human expectations requires high-quality instructional dialogues, which can be achieved by raising diverse, in-depth, and insightful instructions that deepen interactions. Existing methods target instructions from real instruction dialogues as a learning goal and fine-tune a user simulator for posing instructions. However, the user simulator struggles to implicitly model complex dialogue flows and pose high-quality instructions. In this paper, we take inspiration from the cognitive abilities inherent in human learning and propose the explicit modeling of complex dialogue flows through instructional strategy reuse. Specifically, we first induce high-level strategies from various real instruction dialogues. These strategies are applied to new dialogue scenarios deductively, where the instructional strategies facilitate high-quality instructions. Experimental results show that our method can generate diverse, in-depth, and insightful instructions for a given dialogue history. The constructed multi-turn instructional dialogues can outperform competitive baselines on the downstream chat model.
- Abstract(参考訳): 人間の期待に合わせた大きな言語モデル(LLM)の調整には高品質な命令対話が必要である。
既存の手法は、実際の命令対話を学習目標とし、ユーザシミュレータを微調整して、命令をポーズさせる。
しかし、ユーザシミュレータは、複雑な対話フローを暗黙的にモデル化し、高品質な指示を出すのに苦労する。
本稿では,人間の学習に固有の認知能力からインスピレーションを得て,教育戦略の再利用による複雑な対話フローの明示的なモデリングを提案する。
具体的には,まず,様々な実命令対話からハイレベル戦略を導出する。
これらの戦略は、命令戦略が高品質な指示を促進する新しい対話シナリオに適用される。
実験結果から,本手法は対話履歴に対して多種多様な,深い,洞察に富んだ指示を生成できることが示唆された。
構築されたマルチターン・インストラクショナル・ダイアログは、下流のチャットモデルで競合するベースラインより優れている。
関連論文リスト
- Few-shot Dialogue Strategy Learning for Motivational Interviewing via Inductive Reasoning [21.078032718892498]
本稿では,ユーザに対して肯定的なライフスタイル変化を取り入れるための対話システム構築の課題について考察する。
専門家によるデモンストレーションから,自然言語帰納規則の形で会話戦略を学習し,適用可能なフレームワークであるDIITを提案する。
論文 参考訳(メタデータ) (2024-03-23T06:03:37Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - DSBERT:Unsupervised Dialogue Structure learning with BERT [4.171523157658394]
本稿では,Bert を用いた教師なし対話構造学習アルゴリズム DSBERT (Dialogue Structure BERT) を提案する。
従来のSOTAモデルであるVRNNとSVRNNとは異なり、BERTとAutoEncoderを組み合わせることで、コンテキスト情報を効果的に組み合わせることができる。
実験の結果,DSBERTは実構造に近い対話構造を生成でき,意味の異なる文を識別し,異なる隠れ状態にマッピングすることができることがわかった。
論文 参考訳(メタデータ) (2021-11-09T03:31:18Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z) - Advances in Multi-turn Dialogue Comprehension: A Survey [51.215629336320305]
自然言語を理解し、人間と対話するための訓練機械は、人工知能の解明と本質的なタスクである。
本稿では,対話理解タスクにおける対話モデリングの技術的視点から,過去の手法を概観する。
さらに,対話シナリオにおけるPrLMの強化に使用される対話関連事前学習手法を分類する。
論文 参考訳(メタデータ) (2021-10-11T03:52:37Z) - Advances in Multi-turn Dialogue Comprehension: A Survey [51.215629336320305]
対話モデリングの観点から,従来の手法を検討した。
対話理解タスクで広く使用されている対話モデリングの3つの典型的なパターンについて議論します。
論文 参考訳(メタデータ) (2021-03-04T15:50:17Z) - Rethinking Supervised Learning and Reinforcement Learning in
Task-Oriented Dialogue Systems [58.724629408229205]
本稿では、従来の教師あり学習とシミュレータなしの逆学習法を用いて、最先端のRL法に匹敵する性能を実現する方法を示す。
我々の主な目的は、教師あり学習で強化学習に勝ることではなく、タスク指向対話システムの最適化における強化学習と教師あり学習の役割を再考する価値を示すことである。
論文 参考訳(メタデータ) (2020-09-21T12:04:18Z) - Show Us the Way: Learning to Manage Dialog from Demonstrations [20.770386771370347]
本稿では,第8回ダイアログ・システム・チャレンジにおけるエンド・ツー・エンドマルチドメイン・ダイアログ・チャレンジ・トラックについて紹介する。
提案するダイアログシステムは,自然言語理解,対話状態追跡,対話管理,自然言語生成などの異なるコンポーネントを備えたパイプラインアーキテクチャを採用している。
システムの中心となるのは,Demonstrations からの深層Q-learning を用いて,専門家の助けを借りてダイアログポリシーを学習する強化学習アルゴリズムである。
論文 参考訳(メタデータ) (2020-04-17T08:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。