論文の概要: LAD: Language Augmented Diffusion for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.15629v1
- Date: Thu, 27 Oct 2022 17:20:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 12:15:18.029087
- Title: LAD: Language Augmented Diffusion for Reinforcement Learning
- Title(参考訳): LAD:強化学習のための言語拡張拡散
- Authors: Edwin Zhang, Yujie Lu, William Wang, Amy Zhang
- Abstract要約: 言語拡張拡散モデル(Language Augmented Diffusion Model)を言語条件付きプランナーとして活用することを提案する。
我々は, CALVIN言語ロボティクスベンチマークにおいて, 最先端技術を用いたLADと同等の性能を示す。
また,強化学習における言語条件付き拡散の特性についても分析を行った。
- 参考スコア(独自算出の注目度): 6.7377944584798914
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning skills from language provides a powerful avenue for generalization
in reinforcement learning, although it remains a challenging task as it
requires agents to capture the complex interdependencies between language,
actions, and states. In this paper, we propose leveraging Language Augmented
Diffusion models as a planner conditioned on language (LAD). We demonstrate the
comparable performance of LAD with the state-of-the-art on the CALVIN language
robotics benchmark with a much simpler architecture that contains no inductive
biases specialized to robotics, achieving an average success rate (SR) of 72%
compared to the best performance of 76%. We also conduct an analysis on the
properties of language conditioned diffusion in reinforcement learning.
- Abstract(参考訳): 言語からスキルを学ぶことは強化学習の一般化に強力な道を開くが、言語、行動、状態の間の複雑な相互依存性をエージェントが捉える必要があるため、依然として困難な課題である。
本稿では,lad(planner conditioned on language)として言語拡張拡散モデルを活用することを提案する。
我々は,ロボット工学に特化した帰納的バイアスを含まず,平均成功率 (sr) を76%と比較した場合,ladとcalvin language robotics benchmarkの最先端のパフォーマンスを比較検討した。
また,強化学習における言語条件付き拡散の特性の解析を行った。
関連論文リスト
- Text-Image Conditioned Diffusion for Consistent Text-to-3D Generation [28.079441901818296]
我々は,粒度の細かい視野の整合性を明示したNeRF(Neural Radiance Fields)のテキスト・ツー・3D手法を提案する。
本手法は,既存のテキスト・ツー・3D法に対して最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T01:09:49Z) - Diffusion Language Models Can Perform Many Tasks with Scaling and
Instruction-Finetuning [56.03057119008865]
拡散言語モデルを拡張することで、強力な言語学習者が効果的に学習できることが示される。
大規模データから知識を最初に取得することで,大規模に有能な拡散言語モデルを構築する。
実験により、拡散言語モデルのスケーリングは、下流言語タスクにおけるパフォーマンスを一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-08-23T16:01:12Z) - A Cheaper and Better Diffusion Language Model with Soft-Masked Noise [62.719656543880596]
Masked-Diffuse LMは言語モデリングのための新しい拡散モデルであり、言語の言語的特徴に触発されている。
具体的には,テキストデータのノイズを改善するために,戦略的ソフトマスキングによってテキストに劣化を加える言語情報処理を設計する。
我々は,我々のMasked-Diffuse LMが,高効率の最先端拡散モデルよりも優れた生成品質を達成できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:58:42Z) - Efficient Long Sequence Modeling via State Space Augmented Transformer [92.74707853711374]
我々はSPADE($underlinetextbfS$tate sunderlinetextbfP$ace)を提案する。
我々は,SPADEの底層にSSMを付加し,他の層に対して効率的な局所的注意法を適用した。
Long Range Arenaベンチマークと言語モデリングタスクの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-15T20:51:27Z) - Confident Adaptive Language Modeling [95.45272377648773]
CALMは、入力と生成時間ごとに異なる量の計算を動的に割り当てるフレームワークである。
ハイパフォーマンスを確実に維持しつつ、計算能力、潜在的スピードアップを最大3ドルまで削減する上で、我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-14T17:00:19Z) - Long Range Language Modeling via Gated State Spaces [67.64091993846269]
本稿では,英語書籍,Githubソースコード,ArXiv数学論文の自己回帰シーケンスモデリングに焦点をあてる。
Gated State Space (GSS) と呼ばれる新しい層を提案し、S4の対角線よりもかなり高速に訓練可能であることを示す。
論文 参考訳(メタデータ) (2022-06-27T01:50:18Z) - mPLUG: Effective and Efficient Vision-Language Learning by Cross-modal
Skip-connections [104.14624185375897]
mPLUGは、クロスモーダルな理解と生成のための新しいビジョン言語基盤モデルである。
画像キャプション、画像テキスト検索、視覚的グラウンドリング、視覚的質問応答など、幅広い視覚言語下流タスクの最先端結果を達成する。
論文 参考訳(メタデータ) (2022-05-24T11:52:06Z) - Coarse-to-Fine Q-attention: Efficient Learning for Visual Robotic
Manipulation via Discretisation [24.06630254918129]
我々は最近リリースされたARMアルゴリズムを拡張し、連続する次ベストポーズエージェントを離散的な次ベストポーズエージェントに置き換える。
本稿では,3次元空間を判別することにより,翻訳予測をボクセル予測問題として定式化する。
我々は,RLBenchタスクを連続制御法よりもはるかに効率的に実現できることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。