論文の概要: Neural Contact Fields: Tracking Extrinsic Contact with Tactile Sensing
- arxiv url: http://arxiv.org/abs/2210.09297v1
- Date: Mon, 17 Oct 2022 17:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:16:56.301573
- Title: Neural Contact Fields: Tracking Extrinsic Contact with Tactile Sensing
- Title(参考訳): 神経接触場:触覚による外因性接触の追跡
- Authors: Carolina Higuera, Siyuan Dong, Byron Boots, and Mustafa Mukadam
- Abstract要約: 本稿では,物体と環境の間の外在的接触を追跡する問題に対処するため,ニューラルネットワークと触覚センサを組み合わせたニューラルコンタクトフィールドを提案する。
外部との接触がどこで起きているかを知ることは、下流操作作業を容易にするために、それをアクティブに制御できるメソッドへの第一歩である。
- 参考スコア(独自算出の注目度): 36.609644278386135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Neural Contact Fields, a method that brings together neural fields
and tactile sensing to address the problem of tracking extrinsic contact
between object and environment. Knowing where the external contact occurs is a
first step towards methods that can actively control it in facilitating
downstream manipulation tasks. Prior work for localizing environmental contacts
typically assume a contact type (e.g. point or line), does not capture
contact/no-contact transitions, and only works with basic geometric-shaped
objects. Neural Contact Fields are the first method that can track arbitrary
multi-modal extrinsic contacts without making any assumptions about the contact
type. Our key insight is to estimate the probability of contact for any 3D
point in the latent space of object shapes, given vision-based tactile inputs
that sense the local motion resulting from the external contact. In
experiments, we find that Neural Contact Fields are able to localize multiple
contact patches without making any assumptions about the geometry of the
contact, and capture contact/no-contact transitions for known categories of
objects with unseen shapes in unseen environment configurations. In addition to
Neural Contact Fields, we also release our YCB-Extrinsic-Contact dataset of
simulated extrinsic contact interactions to enable further research in this
area. Project repository: https://github.com/carolinahiguera/NCF
- Abstract(参考訳): 本稿では,物体と環境との接触を追跡する問題に対処するために,ニューラルネットワークと触覚センシングを組み合わせたニューラルコンタクトフィールドを提案する。
外部との接触がどこで起きているかを知ることは、下流操作作業を容易にするためにアクティブに制御できるメソッドへの第一歩である。
環境接触をローカライズするための以前の作業は、通常接触タイプ(例えば点や線)を想定し、接触/非接触遷移をキャプチャせず、基本的な幾何学的な形状の物体でのみ動作する。
ニューラルコンタクトフィールドは、接触タイプを仮定することなく、任意のマルチモーダルな外部接触を追跡できる最初の方法である。
我々の重要な洞察は、物体形状の潜在空間における任意の3次元点の接触確率を推定することであり、外部接触による局所的な動きを感知する視覚に基づく触覚入力が与えられる。
実験の結果,ニューラルコンタクトフィールドは接触の形状を仮定することなく複数の接触パッチを局所化することができ,未知の環境構成で未知の形状を持つ既知の物体の接触/非接触遷移を捉えることができることがわかった。
また, 神経接触野に加えて, ycb-extrinsic contact dataset of simulated extrinsic contact interaction も公開し, この領域におけるさらなる研究を可能にした。
プロジェクトリポジトリ: https://github.com/carolinahiguera/ncf
関連論文リスト
- Contact-aware Human Motion Generation from Textual Descriptions [57.871692507044344]
本稿では,テキストから3次元対話型人間の動作を生成する問題に対処する。
私たちは「Contact-Aware Texts」を表すRICH-CATという新しいデータセットを作成します。
そこで本研究では,テキストによる対話型人間の動作合成のためのCATMOという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-23T04:08:39Z) - ContactGen: Generative Contact Modeling for Grasp Generation [37.56729700157981]
本稿では,手動物体間相互作用のためのオブジェクト中心の接触表現型コンタクトGenを提案する。
本研究では,ContactGen予測のための条件生成モデルを提案する。
論文 参考訳(メタデータ) (2023-10-05T17:59:45Z) - DECO: Dense Estimation of 3D Human-Scene Contact In The Wild [54.44345845842109]
SMPL体上の接触を推定するために、身体部分駆動とシーンコンテキスト駆動の両方の注意を用いた新しい3D接触検出器を訓練する。
すべてのベンチマークで既存のSOTAメソッドよりも大幅に優れています。
また、DECが自然画像における多様で挑戦的な現実世界の人間のインタラクションによく当てはまることを定性的に示す。
論文 参考訳(メタデータ) (2023-09-26T21:21:07Z) - Nonrigid Object Contact Estimation With Regional Unwrapping Transformer [16.988812837693203]
手と非剛体物体の間の接触パターンの獲得は、ビジョンとロボティクスのコミュニティにおいて共通の関心事である。
既存の学習ベースの手法は、モノクル画像からの厳密なものとの接触をより重視する。
RUPと呼ばれる新しいハンドオブジェクト接触表現を提案する。これは、推定されたハンドオブジェクト表面を複数の高分解能な2次元領域プロファイルとして解放する。
論文 参考訳(メタデータ) (2023-08-27T11:37:26Z) - Attention for Robot Touch: Tactile Saliency Prediction for Robust
Sim-to-Real Tactile Control [12.302685367517718]
高解像度触覚センサーは、接触に富むロボットタスクにおける局所的な接触に関する情報を正確に提供することができる。
我々は,神経科学の人間のタッチアテンション機構にヒントを得た,ロボットタッチのためのテクスティタクティル・サリエンシ(textittactile saliency)という新しい概念を研究した。
論文 参考訳(メタデータ) (2023-07-26T21:19:45Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - Integrated Object Deformation and Contact Patch Estimation from
Visuo-Tactile Feedback [8.420670642409219]
本稿では,ビジュオ触覚フィードバックからオブジェクトの変形と接触パッチを共同でモデル化する表現を提案する。
我々は,NDCFを学習するためのニューラルネットワークアーキテクチャを提案し,シミュレーションデータを用いて学習する。
我々は,学習したNDCFが微調整を必要とせず,直接現実世界に転送されることを実証した。
論文 参考訳(メタデータ) (2023-05-23T18:53:24Z) - Contact-Aware Retargeting of Skinned Motion [49.71236739408685]
本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-09-15T17:05:02Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Tactile Object Pose Estimation from the First Touch with Geometric
Contact Rendering [19.69677059281393]
本稿では, 既知物体に対する第1タッチからの触覚ポーズ推定手法を提案する。
実際の触覚観測から接触形状への物体認識マップを作成する。
既知の幾何を持つ新しい物体に対して、シミュレーションで完全に調整された知覚モデルを学ぶ。
論文 参考訳(メタデータ) (2020-12-09T18:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。