論文の概要: Learning Object-Based State Estimators for Household Robots
- arxiv url: http://arxiv.org/abs/2011.03183v4
- Date: Sun, 31 Jul 2022 16:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 04:32:50.857727
- Title: Learning Object-Based State Estimators for Household Robots
- Title(参考訳): 家庭内ロボットのためのオブジェクトベース状態推定器の学習
- Authors: Yilun Du, Tomas Lozano-Perez, Leslie Kaelbling
- Abstract要約: 我々は高次元観測と仮説に基づいてオブジェクトベースのメモリシステムを構築する。
シミュレーション環境と実画像の両方において動的に変化するオブジェクトの記憶を維持するシステムの有効性を実証する。
- 参考スコア(独自算出の注目度): 11.055133590909097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A robot operating in a household makes observations of multiple objects as it
moves around over the course of days or weeks. The objects may be moved by
inhabitants, but not completely at random. The robot may be called upon later
to retrieve objects and will need a long-term object-based memory in order to
know how to find them. Existing work in semantic slam does not attempt to
capture the dynamics of object movement. In this paper, we combine some aspects
of classic techniques for data-association filtering with modern
attention-based neural networks to construct object-based memory systems that
operate on high-dimensional observations and hypotheses. We perform end-to-end
learning on labeled observation trajectories to learn both the transition and
observation models. We demonstrate the system's effectiveness in maintaining
memory of dynamically changing objects in both simulated environment and real
images, and demonstrate improvements over classical structured approaches as
well as unstructured neural approaches. Additional information available at
project website: https://yilundu.github.io/obm/.
- Abstract(参考訳): 家庭で運用されているロボットは、数日から数週間かけて動き回る複数の物体を観察します。
物体は住民によって移動されるが、完全にはランダムではない。
ロボットはその後、オブジェクトを検索するために呼び出され、それを見つけるために長期的なオブジェクトベースのメモリが必要になる。
semantic slamの既存の仕事は、オブジェクトの動きのダイナミクスを捉えようとはしない。
本稿では,従来のデータ連想フィルタリング技術と現代の注目型ニューラルネットワークを組み合わせることで,高次元観測と仮説に基づくオブジェクトベースのメモリシステムを構築する。
ラベル付き観測軌道上でエンドツーエンド学習を行い,遷移モデルと観測モデルの両方を学習する。
シミュレーション環境と実画像の両方において,動的に変化するオブジェクトのメモリ保持におけるシステムの有効性を実証し,従来の構造化アプローチや非構造化ニューラルアプローチに対する改善を示す。
プロジェクトのWebサイトにある追加情報は、https://yilundu.github.io/obm/.com/だ。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Out of Sight, Still in Mind: Reasoning and Planning about Unobserved Objects with Video Tracking Enabled Memory Models [11.126673648719345]
オブジェクト指向メモリを多目的操作推論フレームワークに符号化する問題について検討する。
部分ビュー点雲のトラジェクトリの履歴を符号化するためにトランスフォーマダイナミクスを利用するLOOMを提案する。
提案手法は,新規なオブジェクトの出現を排除した推論や,オブジェクトの再出現など,複数のタスクを実行できる。
論文 参考訳(メタデータ) (2023-09-26T21:31:24Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Perceiving Unseen 3D Objects by Poking the Objects [45.70559270947074]
本稿では,3Dオブジェクトの自動検出と再構成を行うポーキング方式を提案する。
ポーキングプロセスにより、ロボットは見えない3Dオブジェクトを発見できるだけでなく、多視点で観察することもできる。
実世界のデータを用いた実験により,本手法は高品質な未知の3Dオブジェクトを教師なしで発見・再構成できることが判明した。
論文 参考訳(メタデータ) (2023-02-26T18:22:13Z) - The Right Spin: Learning Object Motion from Rotation-Compensated Flow
Fields [61.664963331203666]
人間がどのように動く物体を知覚するかは、コンピュータービジョンにおける長年の研究課題である。
この問題の1つのアプローチは、これらすべての効果をモデル化するためのディープネットワークを教えることである。
運動場からカメラの回転を推定する新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2022-02-28T22:05:09Z) - KINet: Unsupervised Forward Models for Robotic Pushing Manipulation [8.572983995175909]
キーポイント表現に基づいたオブジェクトインタラクションを推論する、教師なしフレームワークKINetを紹介します。
我々のモデルは、オブジェクトとキーポイント座標を関連付けることを学び、システムのグラフ表現を発見する。
キーポイント空間における物理的推論を学習することにより、我々のモデルは、異なる数のオブジェクトを持つシナリオに自動的に一般化する。
論文 参考訳(メタデータ) (2022-02-18T03:32:08Z) - Improving Object Permanence using Agent Actions and Reasoning [8.847502932609737]
既存のアプローチは、低レベルの知覚からオブジェクト永続性を学ぶ。
我々は、ロボットが実行された動作に関する知識を使用する場合、オブジェクトの永続性を改善することができると論じる。
論文 参考訳(メタデータ) (2021-10-01T07:09:49Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - INVIGORATE: Interactive Visual Grounding and Grasping in Clutter [56.00554240240515]
INVIGORATEは、自然言語で人間と対話し、特定の物体をクラッタで把握するロボットシステムである。
我々は、物体検出、視覚的接地、質問生成、OBR検出と把握のために、別々のニューラルネットワークを訓練する。
我々は、学習したニューラルネットワークモジュールを統合する、部分的に観測可能なマルコフ決定プロセス(POMDP)を構築します。
論文 参考訳(メタデータ) (2021-08-25T07:35:21Z) - Simultaneous Multi-View Object Recognition and Grasping in Open-Ended
Domains [0.0]
オープンなオブジェクト認識と把握を同時に行うために,メモリ容量を増強したディープラーニングアーキテクチャを提案する。
シミュレーションと実世界設定の両方において,本手法が未確認のオブジェクトを把握し,現場でのごくわずかな例を用いて,新たなオブジェクトカテゴリを迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2021-06-03T14:12:11Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。