論文の概要: SemanticFeels: Semantic Labeling during In-Hand Manipulation
- arxiv url: http://arxiv.org/abs/2602.14099v1
- Date: Sun, 15 Feb 2026 11:22:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.653408
- Title: SemanticFeels: Semantic Labeling during In-Hand Manipulation
- Title(参考訳): SemanticFeels: ハンド操作時のセマンティックラベリング
- Authors: Anas Al Shikh Khalil, Haozhi Qi, Roberto Calandra,
- Abstract要約: 本稿では,意味的ラベル付けと暗黙的形状表現を統合した,NeuralFeelsフレームワークの拡張であるSemanticFeelsを紹介する。
本システムは, 単体および多体の両方の物体上で, 予測材料と実物との高対応性を実現する。
- 参考スコア(独自算出の注目度): 4.054377831053792
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As robots become increasingly integrated into everyday tasks, their ability to perceive both the shape and properties of objects during in-hand manipulation becomes critical for adaptive and intelligent behavior. We present SemanticFeels, an extension of the NeuralFeels framework that integrates semantic labeling with neural implicit shape representation, from vision and touch. To illustrate its application, we focus on material classification: high-resolution Digit tactile readings are processed by a fine-tuned EfficientNet-B0 convolutional neural network (CNN) to generate local material predictions, which are then embedded into an augmented signed distance field (SDF) network that jointly predicts geometry and continuous material regions. Experimental results show that the system achieves a high correspondence between predicted and actual materials on both single- and multi-material objects, with an average matching accuracy of 79.87% across multiple manipulation trials on a multi-material object.
- Abstract(参考訳): ロボットが日常のタスクに統合されるにつれて、手動操作における物体の形状と特性の両方を知覚する能力は適応的かつインテリジェントな行動に欠かせないものとなる。
本稿では、セマンティックフィールズ(SemanticFeels)について紹介する。セマンティックフィールズ(NeuralFeels)フレームワークは、視覚と触覚から、意味的ラベリングとニューラル暗黙的形状表現を統合する。
高分解能ディジット触覚読み出しは、微調整された高効率Net-B0畳み込みニューラルネットワーク(CNN)によって処理され、局所的な物質予測が生成され、次に、幾何学と連続的な物質領域を共同で予測する拡張符号距離場(SDF)ネットワークに埋め込まれる。
実験結果から,本システムは単体および多体の両方の物体における予測材料と実物との対応性が高く,複数操作試験において平均マッチング精度は79.87%であることがわかった。
関連論文リスト
- Noise-Aware Training of Neuromorphic Dynamic Device Networks [2.2691986670431197]
本稿では,デバイスネットワークのトレーニングのための新しいノイズ認識手法を提案する。
我々のアプローチでは、時間とカスケード学習によるバックプロパゲーションを採用し、物理機器の時間的特性を効果的に活用することができる。
論文 参考訳(メタデータ) (2024-01-14T22:46:53Z) - Bayesian and Neural Inference on LSTM-based Object Recognition from
Tactile and Kinesthetic Information [0.0]
触覚知覚は触覚(触覚や審美感覚など)に遭遇する感覚のモーダル性を含む
本論文は多モーダル物体認識に焦点をあて,触覚と審美に基づく分類結果を融合する解析的およびデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2023-06-10T12:29:23Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - A Framework for Multisensory Foresight for Embodied Agents [11.351546861334292]
将来の感覚状態を予測することは、ロボット、ドローン、自動運転車などの学習エージェントにとって不可欠である。
本稿では,複数の感覚モーダルを探索行動と組み合わせ,この問題に対処するための予測ニューラルネットワークアーキテクチャを提案する。
このフレームワークは、大規模なオブジェクトに対して9つの動作を複数回実行するヒューマノイドロボット上で、4つの感覚モーダル(ビジョン、触覚、オーディオ、触覚)を含むデータセットでテストされ、検証された。
論文 参考訳(メタデータ) (2021-09-15T20:20:04Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Learning Intuitive Physics with Multimodal Generative Models [24.342994226226786]
本稿では,視覚と触覚のフィードバックを融合させ,動的シーンにおける物体の動きを予測する枠組みを提案する。
我々は、接触面の高解像度マルチモーダルセンシングを提供する新しいSee-Through-your-Skin(STS)センサを使用します。
物体の静止状態を所定の初期条件から予測するシミュレーションおよび実世界の実験を通じて検証する。
論文 参考訳(メタデータ) (2021-01-12T12:55:53Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - TactileSGNet: A Spiking Graph Neural Network for Event-based Tactile
Object Recognition [17.37142241982902]
フレキシブルでイベント駆動の電子スキンの新しい進歩は、すぐに人間に似たタッチ認識能力を持つロボットを養うかもしれない。
これらのユニークな特徴は、触覚学習には適さない畳み込み特徴抽出器のような、現在のディープラーニングアプローチをもたらす可能性がある。
イベントベース触覚物体認識のための新しいスパイキンググラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-01T03:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。