論文の概要: Real-time Mapping of Physical Scene Properties with an Autonomous Robot
Experimenter
- arxiv url: http://arxiv.org/abs/2210.17325v1
- Date: Mon, 31 Oct 2022 13:46:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:55:23.390995
- Title: Real-time Mapping of Physical Scene Properties with an Autonomous Robot
Experimenter
- Title(参考訳): 自律型ロボット実験装置による物理シーン特性のリアルタイムマッピング
- Authors: Iain Haughton, Edgar Sucar, Andre Mouton, Edward Johns, Andrew J.
Davison
- Abstract要約: ロボットは、任意の離散的または連続的な物理的特性を持つシーンを、完全に自律的な実験相互作用によって密に注釈付けすることができることを示す。
例えば、力センシングを使って剛性を決定すること、局所材料型を単画素分光法で測定すること、押下による力分布の予測などである。
- 参考スコア(独自算出の注目度): 24.739106593227252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural fields can be trained from scratch to represent the shape and
appearance of 3D scenes efficiently. It has also been shown that they can
densely map correlated properties such as semantics, via sparse interactions
from a human labeller. In this work, we show that a robot can densely annotate
a scene with arbitrary discrete or continuous physical properties via its own
fully-autonomous experimental interactions, as it simultaneously scans and maps
it with an RGB-D camera. A variety of scene interactions are possible,
including poking with force sensing to determine rigidity, measuring local
material type with single-pixel spectroscopy or predicting force distributions
by pushing. Sparse experimental interactions are guided by entropy to enable
high efficiency, with tabletop scene properties densely mapped from scratch in
a few minutes from a few tens of interactions.
- Abstract(参考訳): ニューラルネットワークはスクラッチからトレーニングでき、3dシーンの形状や外観を効率的に表現できる。
また、人間のラベルラーからのスパース相互作用を通じて、意味論のような相関特性を密にマッピングできることも示されている。
そこで本研究では,ロボットが任意の離散的あるいは連続的な物理的特性を持つシーンを,自己自発的な実験的なインタラクションを通じて,rgb-dカメラでスキャン・マッピングできることを示す。
例えば、力センシングを使って剛性を決定すること、局所材料型を単画素分光法で測定すること、押下による力分布の予測などである。
スパースな実験相互作用はエントロピーによって誘導され、数十の相互作用から数分で、テーブルトップのシーン特性がスクラッチから密にマッピングされる。
関連論文リスト
- ASSIST: Interactive Scene Nodes for Scalable and Realistic Indoor
Simulation [17.34617771579733]
本稿では、合成および現実的なシミュレーションのためのパノプティクス表現として、オブジェクト指向神経放射場であるASSISTを提案する。
各オブジェクトの情報を統一的に格納する新しいシーンノードデータ構造は、イントラシーンとクロスシーンの両方でオンラインインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-11-10T17:56:43Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - HumanGPS: Geodesic PreServing Feature for Dense Human Correspondences [60.89437526374286]
先行芸術はフレーム間の小さな動きを仮定するか、または大きな動きや視覚的に曖昧な身体部分を扱うことができないローカル記述子に依存します。
本稿では,各画素を特徴空間にマッピングし,特徴距離が画素間の測地距離を反映する深層学習フレームワークを提案する。
セマンティックアノテーションがなければ、提案する埋め込みは自動的に学習し、視覚的に類似した部分を区別し、異なる主題を統一された機能空間にまとめる。
論文 参考訳(メタデータ) (2021-03-29T12:43:44Z) - Learning Intuitive Physics with Multimodal Generative Models [24.342994226226786]
本稿では,視覚と触覚のフィードバックを融合させ,動的シーンにおける物体の動きを予測する枠組みを提案する。
我々は、接触面の高解像度マルチモーダルセンシングを提供する新しいSee-Through-your-Skin(STS)センサを使用します。
物体の静止状態を所定の初期条件から予測するシミュレーションおよび実世界の実験を通じて検証する。
論文 参考訳(メタデータ) (2021-01-12T12:55:53Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - Object Properties Inferring from and Transfer for Human Interaction
Motions [51.896592493436984]
本稿では,人間のインタラクション動作のみからオブジェクト特性を推測する,きめ細かい動作認識手法を提案する。
我々は、慣性モーションキャプチャー装置を用いて、演奏者の多数のビデオと3D骨格の動きを収集する。
特に, 相互作用対象の重み, 脆弱性, デリカシーを推定することにより, 相互作用対象の同定を学習する。
論文 参考訳(メタデータ) (2020-08-20T14:36:34Z) - ThreeDWorld: A Platform for Interactive Multi-Modal Physical Simulation [75.0278287071591]
ThreeDWorld (TDW) はインタラクティブなマルチモーダル物理シミュレーションのためのプラットフォームである。
TDWは、リッチな3D環境において、高忠実な感覚データのシミュレーションと、移動体エージェントとオブジェクト間の物理的相互作用を可能にする。
我々は、コンピュータビジョン、機械学習、認知科学における新たな研究方向において、TDWによって実現された初期実験を提示する。
論文 参考訳(メタデータ) (2020-07-09T17:33:27Z) - Learning Object Placements For Relational Instructions by Hallucinating
Scene Representations [26.897316325189205]
単一入力画像から空間関係の集合に対する画素単位の物体配置確率を推定するための畳み込みニューラルネットワークを提案する。
本手法では,オブジェクトの画素関係確率や3次元モデルに対して,地上の真理データを必要としない。
実世界のデータと人間ロボット実験を用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-01-23T12:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。