論文の概要: LAD: Language Augmented Diffusion for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.15629v1
- Date: Thu, 27 Oct 2022 17:20:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 12:15:18.029087
- Title: LAD: Language Augmented Diffusion for Reinforcement Learning
- Title(参考訳): LAD:強化学習のための言語拡張拡散
- Authors: Edwin Zhang, Yujie Lu, William Wang, Amy Zhang
- Abstract要約: 言語拡張拡散モデル(Language Augmented Diffusion Model)を言語条件付きプランナーとして活用することを提案する。
我々は, CALVIN言語ロボティクスベンチマークにおいて, 最先端技術を用いたLADと同等の性能を示す。
また,強化学習における言語条件付き拡散の特性についても分析を行った。
- 参考スコア(独自算出の注目度): 6.7377944584798914
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning skills from language provides a powerful avenue for generalization
in reinforcement learning, although it remains a challenging task as it
requires agents to capture the complex interdependencies between language,
actions, and states. In this paper, we propose leveraging Language Augmented
Diffusion models as a planner conditioned on language (LAD). We demonstrate the
comparable performance of LAD with the state-of-the-art on the CALVIN language
robotics benchmark with a much simpler architecture that contains no inductive
biases specialized to robotics, achieving an average success rate (SR) of 72%
compared to the best performance of 76%. We also conduct an analysis on the
properties of language conditioned diffusion in reinforcement learning.
- Abstract(参考訳): 言語からスキルを学ぶことは強化学習の一般化に強力な道を開くが、言語、行動、状態の間の複雑な相互依存性をエージェントが捉える必要があるため、依然として困難な課題である。
本稿では,lad(planner conditioned on language)として言語拡張拡散モデルを活用することを提案する。
我々は,ロボット工学に特化した帰納的バイアスを含まず,平均成功率 (sr) を76%と比較した場合,ladとcalvin language robotics benchmarkの最先端のパフォーマンスを比較検討した。
また,強化学習における言語条件付き拡散の特性の解析を行った。
関連論文リスト
- Discrete Diffusion Language Model for Long Text Summarization [19.267738861590487]
本稿では,トランスフォーマーのバックボーンが長いシーケンスを効果的に扱えるような,セマンティック・アウェア・ノーミング・プロセスを提案する。
提案手法は,Gigaword,CNN/DailyMail,Arxivの3つのベンチマーク要約データセットに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-06-25T09:55:22Z) - Lumina-Next: Making Lumina-T2X Stronger and Faster with Next-DiT [120.39362661689333]
本稿では,Lumina-T2Xの改良版を提案する。
これらの改善により、Lumina-Nextは基本的なテキスト・ツー・イメージ生成の品質と効率を向上するだけでなく、優れた解像度の補間能力も示している。
論文 参考訳(メタデータ) (2024-06-05T17:53:26Z) - LaDiC: Are Diffusion Models Really Inferior to Autoregressive Counterparts for Image-to-Text Generation? [10.72249123249003]
我々は拡散モデルを再検討し、全体論的文脈モデリングと並列復号化の能力を強調した。
本稿では,分割BERTを用いた新しいアーキテクチャLaDiCを導入し,キャプション専用のラテント空間を創出する。
LaDiCは、38.2 BLEU@4と126.2 CIDErのMSデータセット上で拡散ベースのメソッドの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-16T17:47:16Z) - ToddlerDiffusion: Interactive Structured Image Generation with Cascaded Schrödinger Bridge [63.00793292863]
ToddlerDiffusionは、RGB画像生成の複雑なタスクを、よりシンプルで解釈可能なステージに分解するための新しいアプローチである。
提案手法はToddler Diffusionと呼ばれ,それぞれが中間表現を生成する責務を担っている。
ToddlerDiffusionは、常に最先端のメソッドより優れています。
論文 参考訳(メタデータ) (2023-11-24T15:20:01Z) - A Cheaper and Better Diffusion Language Model with Soft-Masked Noise [62.719656543880596]
Masked-Diffuse LMは言語モデリングのための新しい拡散モデルであり、言語の言語的特徴に触発されている。
具体的には,テキストデータのノイズを改善するために,戦略的ソフトマスキングによってテキストに劣化を加える言語情報処理を設計する。
我々は,我々のMasked-Diffuse LMが,高効率の最先端拡散モデルよりも優れた生成品質を達成できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:58:42Z) - Efficient Long Sequence Modeling via State Space Augmented Transformer [92.74707853711374]
我々はSPADE($underlinetextbfS$tate sunderlinetextbfP$ace)を提案する。
我々は,SPADEの底層にSSMを付加し,他の層に対して効率的な局所的注意法を適用した。
Long Range Arenaベンチマークと言語モデリングタスクの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-15T20:51:27Z) - Confident Adaptive Language Modeling [95.45272377648773]
CALMは、入力と生成時間ごとに異なる量の計算を動的に割り当てるフレームワークである。
ハイパフォーマンスを確実に維持しつつ、計算能力、潜在的スピードアップを最大3ドルまで削減する上で、我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-14T17:00:19Z) - mPLUG: Effective and Efficient Vision-Language Learning by Cross-modal
Skip-connections [104.14624185375897]
mPLUGは、クロスモーダルな理解と生成のための新しいビジョン言語基盤モデルである。
画像キャプション、画像テキスト検索、視覚的グラウンドリング、視覚的質問応答など、幅広い視覚言語下流タスクの最先端結果を達成する。
論文 参考訳(メタデータ) (2022-05-24T11:52:06Z) - Coarse-to-Fine Q-attention: Efficient Learning for Visual Robotic
Manipulation via Discretisation [24.06630254918129]
我々は最近リリースされたARMアルゴリズムを拡張し、連続する次ベストポーズエージェントを離散的な次ベストポーズエージェントに置き換える。
本稿では,3次元空間を判別することにより,翻訳予測をボクセル予測問題として定式化する。
我々は,RLBenchタスクを連続制御法よりもはるかに効率的に実現できることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。