論文の概要: Hyper-Universal Policy Approximation: Learning to Generate Actions from
a Single Image using Hypernets
- arxiv url: http://arxiv.org/abs/2207.03593v1
- Date: Thu, 7 Jul 2022 21:42:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 11:24:09.914533
- Title: Hyper-Universal Policy Approximation: Learning to Generate Actions from
a Single Image using Hypernets
- Title(参考訳): ハイパーユニバーサルポリシー近似:ハイパーネットを用いた単一画像からのアクション生成の学習
- Authors: Dimitrios C. Gklezakos, Rishi Jha, Rajesh P. N. Rao
- Abstract要約: ユニバーサル・ポリシー・ファンクション(UPF、Universal Policy Functions)は、新しい、目に見えない環境に一般化するステート・ツー・アクション・マッピングである。
単一画像からタスクと環境条件の小さなポリシーネットワークを生成するハイパーネットワークベースのモデルであるHyper-Universal Policy Approximator (HUPA)を提案する。
以上の結果から,HUPAsは,サイズに制約のある生成ポリシに対して,埋め込みベースの代替手段を著しく上回っていることがわかった。
- 参考スコア(独自算出の注目度): 1.3535770763481902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by Gibson's notion of object affordances in human vision, we ask the
question: how can an agent learn to predict an entire action policy for a novel
object or environment given only a single glimpse? To tackle this problem, we
introduce the concept of Universal Policy Functions (UPFs) which are
state-to-action mappings that generalize not only to new goals but most
importantly to novel, unseen environments. Specifically, we consider the
problem of efficiently learning such policies for agents with limited
computational and communication capacity, constraints that are frequently
encountered in edge devices. We propose the Hyper-Universal Policy Approximator
(HUPA), a hypernetwork-based model to generate small task- and
environment-conditional policy networks from a single image, with good
generalization properties. Our results show that HUPAs significantly outperform
an embedding-based alternative for generated policies that are
size-constrained. Although this work is restricted to a simple map-based
navigation task, future work includes applying the principles behind HUPAs to
learning more general affordances for objects and environments.
- Abstract(参考訳): 人間の視覚におけるオブジェクトの余裕というギブソンの概念に触発されて、エージェントはどのようにして新しいオブジェクトや環境に対するアクションポリシー全体を予測することができるのか?
この問題に取り組むために,我々は,新しい目標だけでなく,最も重要で目に見えない新しい環境に一般化した,状態対行動マッピングであるユニバーサル・ポリシー・ファンクション(upfs)の概念を紹介する。
具体的には,エッジデバイスで頻繁に発生する制約である計算能力や通信能力の制限のあるエージェントに対して,そのようなポリシーを効率的に学習する問題を考える。
本稿では,単一画像からタスクと環境条件のポリシーネットワークを生成するハイパーネットワークベースのモデルであるHyper-Universal Policy Approximator (HUPA)を提案する。
以上の結果から,HUPAsは,サイズに制約のある生成ポリシに対して,埋め込みベースの代替手段を著しく上回っていることがわかった。
この作業は単純な地図ベースのナビゲーションタスクに限定されるが、将来の作業には、HUPAの背後にある原則を適用して、オブジェクトや環境のより一般的な余裕を学習することが含まれる。
関連論文リスト
- Foundation Policies with Hilbert Representations [61.19488199476655]
ラベルなしオフラインデータから一般ポリシーを事前学習するための教師なしフレームワークを提案する。
我々の重要な洞察は、基盤となる環境の時間的構造を保存する構造的表現を学習することである。
実験の結果、教師なしのポリシーは、ゴール条件付きおよび一般のRLタスクをゼロショットで解決できることがわかった。
論文 参考訳(メタデータ) (2024-02-23T19:09:10Z) - Federated Natural Policy Gradient Methods for Multi-task Reinforcement
Learning [49.65958529941962]
フェデレート強化学習(RL)は、ローカルデータトラジェクトリを共有することなく、複数の分散エージェントの協調的な意思決定を可能にする。
本研究では,各エージェントがそれぞれのタスクに対応する個別の報酬関数を持つマルチタスク設定について考察する。
我々は、分散された方法で全てのエージェントの割引された全報酬の総和を最大化する、世界的な最適政策を学習する。
論文 参考訳(メタデータ) (2023-11-01T00:15:18Z) - Residual Q-Learning: Offline and Online Policy Customization without
Value [53.47311900133564]
イミテーション・ラーニング(Imitation Learning, IL)は、実演から模倣行動を学ぶためのフレームワークである。
政策カスタマイズと呼ばれる新しい問題設定を定式化する。
本稿では,従来の政策を活かして定式化MDPを解くための新しいフレームワークであるResidual Q-learningを提案する。
論文 参考訳(メタデータ) (2023-06-15T22:01:19Z) - Goal-Conditioned Imitation Learning using Score-based Diffusion Policies [3.49482137286472]
スコアベース拡散モデル(SDM)に基づく新しいポリシー表現を提案する。
我々はゴール・コンディションド・イミテーション・ラーニング(GCIL)の領域に新しい政策表現を適用した。
直感的なガイダンスを用いて,遊びデータから目標に依存しないポリシーを学習するためにBESOをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-04-05T15:52:34Z) - Optimistic Linear Support and Successor Features as a Basis for Optimal
Policy Transfer [7.970144204429356]
我々は、SFが凸被覆集合を形成するポリシーの集合を学習するために、最適化線形サポートアルゴリズムのSFベースの拡張を導入する。
この集合におけるポリシは、一般化されたポリシー改善を通じて組み合わせて、新しい線形表現可能なタスクに対して最適な振る舞いを構築することができることを示す。
論文 参考訳(メタデータ) (2022-06-22T19:00:08Z) - Planning to Practice: Efficient Online Fine-Tuning by Composing Goals in
Latent Space [76.46113138484947]
汎用ロボットは、現実世界の非構造環境において困難なタスクを完了するために、多様な行動レパートリーを必要とする。
この問題に対処するため、目標条件強化学習は、コマンド上の幅広いタスクの目標に到達可能なポリシーを取得することを目的としている。
本研究では,長期的課題に対する目標条件付き政策を実践的に訓練する手法であるPlanning to Practiceを提案する。
論文 参考訳(メタデータ) (2022-05-17T06:58:17Z) - Using Constraint Programming and Graph Representation Learning for
Generating Interpretable Cloud Security Policies [12.43505973436359]
クラウドセキュリティは、IT管理者が適切に設定し定期的に更新する必要があるIDアクセス管理(IAM)ポリシーに依存している。
我々は制約プログラミング(CP)を用いて最適なIAMポリシーを生成する新しいフレームワークを開発する。
最適化されたIAMポリシは,8つの商用組織と合成インスタンスの実際のデータを用いたセキュリティ攻撃の影響を著しく低減することを示す。
論文 参考訳(メタデータ) (2022-05-02T22:15:07Z) - Constructing a Good Behavior Basis for Transfer using Generalized Policy
Updates [63.58053355357644]
そこで我々は,優れた政策集合を学習する問題を考察し,組み合わせることで,目に見えない多種多様な強化学習タスクを解くことができることを示した。
理論的には、独立したポリシーのセットと呼ぶ、特定の多様なポリシーのセットにアクセスできることによって、ハイレベルなパフォーマンスを即時に達成できることが示される。
論文 参考訳(メタデータ) (2021-12-30T12:20:46Z) - Stronger Generalization Guarantees for Robot Learning by Combining
Generative Models and Real-World Data [5.935761705025763]
実世界の環境の有限データセットを活用することで、一般化保証を提供するためのフレームワークを提供する。
非線形・ハイブリッド力学とリッチ・センシング・モダリティを持つ2つのシミュレーションシステムに対するアプローチを実証する。
論文 参考訳(メタデータ) (2021-11-16T20:13:10Z) - DisCo RL: Distribution-Conditioned Reinforcement Learning for
General-Purpose Policies [116.12670064963625]
分散条件強化学習(DisCo RL)と呼ばれるオフポリシーアルゴリズムを開発し、コンテキストポリシーを効率的に学習します。
DisCo RLをさまざまなロボット操作タスクで評価し、新しい目標分布への一般化を必要とするタスクの以前の方法を大幅に上回っていることを発見しました。
論文 参考訳(メタデータ) (2021-04-23T16:51:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。