論文の概要: Visual Prediction of Priors for Articulated Object Interaction
- arxiv url: http://arxiv.org/abs/2006.03979v1
- Date: Sat, 6 Jun 2020 21:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:25:04.165628
- Title: Visual Prediction of Priors for Articulated Object Interaction
- Title(参考訳): 人工物体相互作用の事前の視覚的予測
- Authors: Caris Moses, Michael Noseworthy, Leslie Pack Kaelbling, Tom\'as
Lozano-P\'erez, and Nicholas Roy
- Abstract要約: 人間は先行体験を迅速かつ効率的に構築することができる。
大人は台所などの新しい空間に入る際にもこの行動を示す。
我々は、視覚を通して、類似したドメイン間の相互作用間で知識を伝達する手段を提供する、コンテキスト優先予測法を開発した。
- 参考スコア(独自算出の注目度): 37.759459329701194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploration in novel settings can be challenging without prior experience in
similar domains. However, humans are able to build on prior experience quickly
and efficiently. Children exhibit this behavior when playing with toys. For
example, given a toy with a yellow and blue door, a child will explore with no
clear objective, but once they have discovered how to open the yellow door,
they will most likely be able to open the blue door much faster. Adults also
exhibit this behavior when entering new spaces such as kitchens. We develop a
method, Contextual Prior Prediction, which provides a means of transferring
knowledge between interactions in similar domains through vision. We develop
agents that exhibit exploratory behavior with increasing efficiency, by
learning visual features that are shared across environments, and how they
correlate to actions. Our problem is formulated as a Contextual Multi-Armed
Bandit where the contexts are images, and the robot has access to a
parameterized action space. Given a novel object, the objective is to maximize
reward with few interactions. A domain which strongly exhibits correlations
between visual features and motion is kinemetically constrained mechanisms. We
evaluate our method on simulated prismatic and revolute joints.
- Abstract(参考訳): 同様のドメインでの事前の経験なしでは、新しい設定での探索は難しい。
しかし、人間は先行体験を迅速かつ効率的に構築することができる。
子供たちはおもちゃで遊ぶときにこの振る舞いを示します。
例えば、黄色と青のドアを持つおもちゃがあれば、子供は明確な目的を持って探検しますが、一度黄色いドアの開け方を発見したら、青いドアをずっと早く開くことができます。
大人は台所などの新しい空間に入る際にもこの行動を示す。
そこで我々は,類似する領域の相互作用間の知識を視覚を通して伝達する手法である文脈先行予測法を開発した。
我々は,環境間で共有される視覚特徴と行動との関連を学習することにより,効率を高めつつ探索行動を示すエージェントを開発した。
この問題は、コンテキストがイメージであり、ロボットがパラメータ化されたアクションスペースにアクセスできるコンテキスト多腕バンディットとして定式化されている。
新たな対象が与えられた場合、その目的はわずかな相互作用で報酬を最大化することである。
視覚特徴と運動の相関関係を強く示す領域は、運動論的に制約されたメカニズムである。
人工関節とリボリュート関節のシミュレーション法について検討した。
関連論文リスト
- Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Self-Supervised Learning of Action Affordances as Interaction Modes [25.16302650076381]
本研究は,音声オブジェクトとの有用な相互作用の事前の教師なし学習に取り組む。
インタラクトモードを学習するために、シミュレータの奥行きセンサーへのアクセスのみを前提としています。
我々のモデルは、人間のインタラクションのほとんどのモードをカバーし、既存の手頃な学習方法よりも優れており、トレーニング中に見たことのないオブジェクトに一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-27T19:58:11Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Ditto in the House: Building Articulation Models of Indoor Scenes
through Interactive Perception [31.009703947432026]
本研究は,ロボットの意図的なインタラクションを通じて室内シーンの調音モデルを構築することを検討する。
この課題にインタラクティブな認識アプローチを導入する。
シミュレーションと実世界の両方において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-02-02T18:22:00Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Visual Perspective Taking for Opponent Behavior Modeling [22.69165968663182]
ロボットのためのエンドツーエンドの長期視覚予測フレームワークを提案する。
視覚的に隠れて見るという文脈で、我々のアプローチを実証する。
我々は,実世界のマルチエージェント活動に完全に統合できる物理ロボットの能力において,視覚行動モデリングとパースペクティブテイキングスキルが重要な役割を果たすことを示唆する。
論文 参考訳(メタデータ) (2021-05-11T16:02:32Z) - Learning Affordance Landscapes for Interaction Exploration in 3D
Environments [101.90004767771897]
エージェントは環境の仕組みを習得できなければならない。
相互作用探索のための強化学習手法を提案する。
AI2-iTHORで私たちのアイデアを実証します。
論文 参考訳(メタデータ) (2020-08-21T00:29:36Z) - Learning About Objects by Learning to Interact with Them [29.51363040054068]
人間はしばしば、外部の監督をほとんど、あるいは全く行わずに自分の世界について学ぶ。
物体を発見し,その物理特性を学習する計算フレームワークを提案する。
我々のエージェントは、近距離フォトリアリスティックで物理対応のAI2-THOR環境の中に置かれると、その世界と対話し、物体について学ぶ。
論文 参考訳(メタデータ) (2020-06-16T16:47:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。