論文の概要: Few-shot Dialogue Strategy Learning for Motivational Interviewing via Inductive Reasoning
- arxiv url: http://arxiv.org/abs/2403.15737v1
- Date: Sat, 23 Mar 2024 06:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 21:22:21.666914
- Title: Few-shot Dialogue Strategy Learning for Motivational Interviewing via Inductive Reasoning
- Title(参考訳): 帰納的推論によるモチベーション面接のための対話戦略学習
- Authors: Zhouhang Xie, Bodhisattwa Prasad Majumder, Mengjie Zhao, Yoshinori Maeda, Keiichi Yamada, Hiromi Wakaki, Julian McAuley,
- Abstract要約: 本稿では,ユーザに対して肯定的なライフスタイル変化を取り入れるための対話システム構築の課題について考察する。
専門家によるデモンストレーションから,自然言語帰納規則の形で会話戦略を学習し,適用可能なフレームワークであるDIITを提案する。
- 参考スコア(独自算出の注目度): 21.078032718892498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the task of building a dialogue system that can motivate users to adopt positive lifestyle changes: Motivational Interviewing. Addressing such a task requires a system that can infer \textit{how} to motivate a user effectively. We propose DIIT, a framework that is capable of learning and applying conversation strategies in the form of natural language inductive rules from expert demonstrations. Automatic and human evaluation on instruction-following large language models show natural language strategy descriptions discovered by DIIR can improve active listening skills, reduce unsolicited advice, and promote more collaborative and less authoritative responses, outperforming various demonstration utilization methods.
- Abstract(参考訳): 本稿では,ユーザに対して肯定的なライフスタイル変化を取り入れるための対話システム構築の課題について考察する。
そのようなタスクに対処するには、ユーザーを効果的に動機づけるために \textit{how} を推論できるシステムが必要である。
専門家によるデモンストレーションから,自然言語帰納規則の形で会話戦略を学習し,適用可能なフレームワークであるDIITを提案する。
命令追従型大規模言語モデルの自動評価により、DIIRによって発見された自然言語戦略記述は、アクティブリスニングスキルを改善し、非孤立的なアドバイスを減らし、より協調的で信頼性の低い応答を促進し、様々な実演利用方法より優れていることを示す。
関連論文リスト
- SPL: A Socratic Playground for Learning Powered by Large Language Model [5.383689446227398]
ソクラティック・プレイグラウンド・フォー・ラーニング (SPL) は GPT-4 をベースとした対話型プレイグラウンドである。
SPLは、個人のニーズに合わせてパーソナライズされた適応的な学習体験を強化することを目的としている。
論文 参考訳(メタデータ) (2024-06-20T01:18:52Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Solving Dialogue Grounding Embodied Task in a Simulated Environment
using Further Masked Language Modeling [0.0]
提案手法は,言語モデルを用いたSOTA(State-of-the-art)手法によるタスク理解を強化するために,言語モデリングを用いる。
実験の結果,提案手法が優れていることを示す証拠が得られた。
論文 参考訳(メタデータ) (2023-06-21T17:17:09Z) - Context-Aware Language Modeling for Goal-Oriented Dialogue Systems [84.65707332816353]
我々は、部分的に観察されたマルコフ決定過程としてゴール指向対話を定式化する。
目的を意識して言語モデルを微調整する,シンプルで効果的な手法を考案する。
本研究では,AirDialogue を用いた実践的なフライト予約タスクについて評価する。
論文 参考訳(メタデータ) (2022-04-18T17:23:11Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - Rethinking Supervised Learning and Reinforcement Learning in
Task-Oriented Dialogue Systems [58.724629408229205]
本稿では、従来の教師あり学習とシミュレータなしの逆学習法を用いて、最先端のRL法に匹敵する性能を実現する方法を示す。
我々の主な目的は、教師あり学習で強化学習に勝ることではなく、タスク指向対話システムの最適化における強化学習と教師あり学習の役割を再考する価値を示すことである。
論文 参考訳(メタデータ) (2020-09-21T12:04:18Z) - Dialog Policy Learning for Joint Clarification and Active Learning
Queries [24.420113907842147]
我々は階層的な対話ポリシーを訓練し、明確化と活発な学習の両方を共同で行う。
本研究では,これらの機能の一つあるいは両方に対して静的なダイアログポリシーを使用することよりも,対話ポリシーの明確化と能動的学習が効果的であることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:53:21Z) - Show Us the Way: Learning to Manage Dialog from Demonstrations [20.770386771370347]
本稿では,第8回ダイアログ・システム・チャレンジにおけるエンド・ツー・エンドマルチドメイン・ダイアログ・チャレンジ・トラックについて紹介する。
提案するダイアログシステムは,自然言語理解,対話状態追跡,対話管理,自然言語生成などの異なるコンポーネントを備えたパイプラインアーキテクチャを採用している。
システムの中心となるのは,Demonstrations からの深層Q-learning を用いて,専門家の助けを借りてダイアログポリシーを学習する強化学習アルゴリズムである。
論文 参考訳(メタデータ) (2020-04-17T08:41:54Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。