論文の概要: Recent Advances of Deep Robotic Affordance Learning: A Reinforcement
Learning Perspective
- arxiv url: http://arxiv.org/abs/2303.05344v2
- Date: Fri, 10 Mar 2023 18:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 11:24:45.023547
- Title: Recent Advances of Deep Robotic Affordance Learning: A Reinforcement
Learning Perspective
- Title(参考訳): 深層ロボットアプライアンス学習の最近の進歩:強化学習の視点から
- Authors: Xintong Yang, Ze Ji, Jing Wu, Yu-kun Lai
- Abstract要約: ディープ・ロボティクス・アベイランス・ラーニング(DRAL)は、ロボットのタスクを支援するために、アベイランスの概念を使用するデータ駆動の手法を開発することを目的としている。
まず、これらの論文を強化学習(RL)の観点から分類し、RLと余裕の関連性を引き出す。
最後に、任意のアクション結果の予測を含むために、RLに基づくアベイランス定義の将来的な方向性を提案する。
- 参考スコア(独自算出の注目度): 44.968170318777105
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As a popular concept proposed in the field of psychology, affordance has been
regarded as one of the important abilities that enable humans to understand and
interact with the environment. Briefly, it captures the possibilities and
effects of the actions of an agent applied to a specific object or, more
generally, a part of the environment. This paper provides a short review of the
recent developments of deep robotic affordance learning (DRAL), which aims to
develop data-driven methods that use the concept of affordance to aid in
robotic tasks. We first classify these papers from a reinforcement learning
(RL) perspective, and draw connections between RL and affordances. The
technical details of each category are discussed and their limitations
identified. We further summarise them and identify future challenges from the
aspects of observations, actions, affordance representation, data-collection
and real-world deployment. A final remark is given at the end to propose a
promising future direction of the RL-based affordance definition to include the
predictions of arbitrary action consequences.
- Abstract(参考訳): 心理学の分野で提案された一般的な概念として、余裕は人間が環境を理解し、交流できる重要な能力の1つとみなされてきた。
簡単に言えば、特定の対象またはより一般的には環境の一部に適用されるエージェントの作用の可能性と効果をキャプチャする。
本稿では,ロボット作業を支援するために,手頃な価格の概念を用いたデータ駆動型手法を開発することを目的とした,近年の深層ロボットアベイランス学習(DRAL)の成果を概観する。
まず、これらの論文を強化学習(RL)の観点から分類し、RLと余裕の関連性を引き出す。
各カテゴリの技術的な詳細を議論し、その限界を特定する。
さらにそれらを要約し、観察、行動、余裕表現、データ収集、実世界の展開といった側面から将来の課題を特定します。
最後に最終意見が述べられ、任意の行動の結果の予測を含むためにrlベースのアフォーアンス定義の将来的な方向性を提案する。
関連論文リスト
- Human Action Anticipation: A Survey [86.415721659234]
行動予測に関する文献は、行動予測、活動予測、意図予測、目標予測など、様々なタスクにまたがる。
我々の調査は、この断片化された文献を結びつけることを目的としており、最近の技術革新とモデルトレーニングと評価のための新しい大規模データセットの開発をカバーしています。
論文 参考訳(メタデータ) (2024-10-17T21:37:40Z) - On the Element-Wise Representation and Reasoning in Zero-Shot Image Recognition: A Systematic Survey [82.49623756124357]
ゼロショット画像認識(ZSIR)は、目に見えない領域の認識と推論をモデルに与えることを目的としている。
本稿では,近年の素子ワイドZSIRの進歩について概説する。
まず、オブジェクト認識、合成認識、基礎モデルに基づくオープンワールド認識という3つの基本的なZSIRタスクを、統一された要素的視点に統合する。
論文 参考訳(メタデータ) (2024-08-09T05:49:21Z) - On the Role of Entity and Event Level Conceptualization in Generalizable Reasoning: A Survey of Tasks, Methods, Applications, and Future Directions [46.63556358247516]
エンティティとイベントレベルの概念化は、一般化可能な推論において重要な役割を果たす。
現在、概念化の定義、実行、適用に関する既存の研究を包括的に調べる体系的な概要が欠如している。
本稿では,150以上の論文を総合的に調査し,概念化に関連する様々な定義,資源,方法,下流のアプリケーションを統一分類に分類する。
論文 参考訳(メタデータ) (2024-06-16T10:32:41Z) - A Survey on Deep Learning Techniques for Action Anticipation [12.336150312807561]
本稿では,近年の行動予測アルゴリズムの進歩を概観する。
我々はこれらの手法を主要な貢献に応じて分類し、それらを表形式で要約する。
我々は、アクション予測に使用される一般的な評価指標とデータセットを掘り下げ、体系的な議論で将来の方向性を提供する。
論文 参考訳(メタデータ) (2023-09-29T14:07:56Z) - A Closer Look at Reward Decomposition for High-Level Robotic
Explanations [18.019811754800767]
本稿では、報酬分解と抽象的な行動空間を組み合わせたQ-Map学習フレームワークを提案する。
本稿では,2つのロボットシナリオの定量的,定性的な分析を通じて,本フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T16:01:42Z) - Predicting the Future from First Person (Egocentric) Vision: A Survey [18.07516837332113]
この調査は、自我中心のビジョンから将来の予測の文脈における研究の進化を要約する。
アプリケーション、デバイス、既存の問題、一般的に使用されるデータセット、モデル、入力モダリティの概要を説明している。
我々の分析は、自我中心の視覚から将来の予測方法が、様々なアプリケーションに重大な影響を与えることを強調している。
論文 参考訳(メタデータ) (2021-07-28T14:58:13Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - Learning Long-term Visual Dynamics with Region Proposal Interaction
Networks [75.06423516419862]
オブジェクト間およびオブジェクト環境間の相互作用を長距離にわたってキャプチャするオブジェクト表現を構築します。
単純だが効果的なオブジェクト表現のおかげで、我々の手法は先行手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-08-05T17:48:00Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。