論文の概要: KRLS: Improving End-to-End Response Generation in Task Oriented Dialog
with Reinforced Keywords Learning
- arxiv url: http://arxiv.org/abs/2211.16773v5
- Date: Thu, 19 Oct 2023 19:16:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 14:09:43.808278
- Title: KRLS: Improving End-to-End Response Generation in Task Oriented Dialog
with Reinforced Keywords Learning
- Title(参考訳): KRLS:強化キーワード学習によるタスク指向対話におけるエンドツーエンド応答生成の改善
- Authors: Xiao Yu, Qingyang Wu, Kun Qian, Zhou Yu
- Abstract要約: タスク指向ダイアログ(TOD)では、強化学習アルゴリズムがタスク関連メトリクスの応答を直接最適化するためにモデルを訓練する。
オフライン環境でのTOD性能を改善するために,より効率的なRLベースのアルゴリズムを提案する。
MultiWoZデータセットの実験では、我々の新しいトレーニングアルゴリズムであるKeywords Reinforcement Learning with Next-word Smpling (KRLS)が最先端のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 25.421649004269373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In task-oriented dialogs (TOD), reinforcement learning (RL) algorithms train
a model to directly optimize response for task-related metrics. However, RL
needs to perform exploration, which can be time-consuming due to the slow
auto-regressive sequence generation process. We investigate an approach to
create a more efficient RL-based algorithm to improve TOD performance in an
offline setting. First, we use a faster generation procedure that samples from
independent next-word distributions after training the language model (LM) with
supervised learning. We then introduce a fine-grained reward function to help
the model focus on learning key information in a dialog, by measuring the
importance and semantic closeness of each generated token. Experiments on the
MultiWoZ dataset show our new training algorithm, Keywords Reinforcement
Learning with Next-word Sampling (KRLS), achieves state-of-the-art performance
on the end-to-end response generation task, with a 15% training time reduction
compared to a standard RL algorithm using auto-regressive generation.
- Abstract(参考訳): タスク指向ダイアログ(TOD)では、強化学習(RL)アルゴリズムがタスク関連メトリクスの応答を直接最適化するためにモデルを訓練する。
しかし、RLは、遅い自己回帰シーケンス生成プロセスのために、時間を要する探索を行う必要がある。
オフライン環境でのTOD性能を改善するために,より効率的なRLベースのアルゴリズムを提案する。
まず、教師付き学習で言語モデル(LM)を訓練した後、独立した単語分布から抽出する高速な生成手順を用いる。
次に,生成したトークンの重要度と意味的近さを測定することにより,モデルがダイアログ内の重要な情報を学ぶことに集中するのに役立つ細粒度報酬関数を導入する。
また,MultiWoZデータセットを用いた実験では,提案する学習アルゴリズムであるKRLS(Keywords Reinforcement Learning with Next-word Smpling)が,自動回帰生成を用いた標準RLアルゴリズムと比較して15%のトレーニング時間を短縮した。
関連論文リスト
- Reinforcement Learning with Action Sequence for Data-Efficient Robot Learning [62.3886343725955]
本稿では,行動列上のQ値を出力する批判ネットワークを学習する新しいRLアルゴリズムを提案する。
提案アルゴリズムは,現在および将来の一連の行動の実行結果を学習するために値関数を明示的に訓練することにより,ノイズのある軌道から有用な値関数を学習することができる。
論文 参考訳(メタデータ) (2024-11-19T01:23:52Z) - Q-SFT: Q-Learning for Language Models via Supervised Fine-Tuning [62.984693936073974]
価値に基づく強化学習は、幅広いマルチターン問題に対する効果的なポリシーを学ぶことができる。
現在の値ベースのRL法は、特に大規模な言語モデルの設定にスケールすることが困難であることが証明されている。
本稿では,これらの欠点に対処する新しいオフラインRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-07T21:36:52Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - Reinforcement Learning with Token-level Feedback for Controllable Text Generation [16.117006822479407]
token-Level rewards for controllable text generationを定式化するTOLEという新しい強化学習アルゴリズムを提案する。
実験結果から,本アルゴリズムは単一属性と複数属性の制御タスクにおいて,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-03-18T08:18:37Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - ESRL: Efficient Sampling-based Reinforcement Learning for Sequence
Generation [43.506732624371786]
本稿では,RLを用いたトレーニングシーケンス生成モデルにおいて,サンプリング効率を向上させるための2段階サンプリング手法と動的サンプリング手法を提案する。
実験結果から,ESRLと呼ばれる効率的なサンプリングベースRLは,トレーニング効率とメモリ消費の両方の観点から,すべてのベースラインを上回り得ることが示された。
論文 参考訳(メタデータ) (2023-08-04T09:35:45Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - Self-Paced Deep Reinforcement Learning [42.467323141301826]
カリキュラム強化学習(CRL)は、学習を通して調整された一連のタスクに公開することにより、エージェントの学習速度と安定性を向上させる。
実証的な成功にもかかわらず、CRLのオープンな疑問は、手動設計を避けながら、与えられた強化学習(RL)エージェントのカリキュラムを自動的に生成する方法である。
本稿では,カリキュラム生成を推論問題として解釈し,タスク上の分布を段階的に学習し,対象タスクにアプローチすることで解答を提案する。
このアプローチは、エージェントがペースを制御し、しっかりとした理論的動機を持ち、深いRLアルゴリズムと容易に統合できる自動カリキュラム生成につながる。
論文 参考訳(メタデータ) (2020-04-24T15:48:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。