論文の概要: Tactile-ViewGCN: Learning Shape Descriptor from Tactile Data using Graph
Convolutional Network
- arxiv url: http://arxiv.org/abs/2203.06183v1
- Date: Sat, 12 Mar 2022 05:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 17:15:29.162905
- Title: Tactile-ViewGCN: Learning Shape Descriptor from Tactile Data using Graph
Convolutional Network
- Title(参考訳): グラフ畳み込みネットワークを用いた触覚データからの形状記述子学習
- Authors: Sachidanand V S and Mansi Sharma
- Abstract要約: 触覚データを用いたオブジェクト分類に関するこれまでの研究を改善することに焦点を当てている。
本稿では,触覚的特徴を階層的に集約する新しい手法Tactile-ViewGCNを提案する。
提案手法は,STAGデータセットにおいて81.82%の精度で過去の手法より優れていた。
- 参考スコア(独自算出の注目度): 0.4189643331553922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For humans, our "senses of touch" have always been necessary for our ability
to precisely and efficiently manipulate objects of all shapes in any
environment, but until recently, not many works have been done to fully
understand haptic feedback. This work proposed a novel method for getting a
better shape descriptor than existing methods for classifying an object from
multiple tactile data collected from a tactile glove. It focuses on improving
previous works on object classification using tactile data. The major problem
for object classification from multiple tactile data is to find a good way to
aggregate features extracted from multiple tactile images. We propose a novel
method, dubbed as Tactile-ViewGCN, that hierarchically aggregate tactile
features considering relations among different features by using Graph
Convolutional Network. Our model outperforms previous methods on the STAG
dataset with an accuracy of 81.82%.
- Abstract(参考訳): 人間にとって「触覚感覚」は、あらゆる環境において、あらゆる形の物体を正確かつ効率的に操作できる能力に欠かせないものだったが、近年まで、触覚フィードバックを完全に理解するための多くの研究は行われていない。
本研究では,触覚グローブから収集した複数の触覚データから物体を分類する既存の方法よりも優れた形状記述子を得る新しい方法を提案した。
触覚データを用いたオブジェクトの分類に関するこれまでの作業の改善に重点を置いている。
複数の触覚データからオブジェクトを分類する主な問題は、複数の触覚画像から抽出した特徴を集約する良い方法を見つけることである。
本稿では,グラフ畳み込みネットワークを用いて,異なる特徴間の関係を考慮した触覚特徴を階層的に集約する新しい手法 tactile-viewgcn を提案する。
このモデルは,stagデータセットの従来の手法を81.82%の精度で上回っている。
関連論文リスト
- TextToucher: Fine-Grained Text-to-Touch Generation [20.49021594738016]
触覚画像の特徴を物体レベル(触覚テクスチャ,触覚形状)とセンサレベル(ゲルの状態)の2つの粒度から詳細に分析する。
高品質な触覚サンプルを生成するための細粒度テキストタッチ生成法(TextToucher)を提案する。
論文 参考訳(メタデータ) (2024-09-09T08:26:47Z) - PseudoTouch: Efficiently Imaging the Surface Feel of Objects for Robotic Manipulation [8.997347199266592]
私たちの目標は、ロボットに同じような能力を持たせることです。
我々はこの問題を,低次元視覚触覚埋め込み学習のタスクとして捉えている。
ReSkinを使って、アライメントされた触覚と視覚データペアからなるデータセット上でPseudoTouchを収集し、トレーニングします。
我々はPseudoTouchの有効性を、物体認識と把握安定性予測という2つの下流タスクに適用することで実証する。
論文 参考訳(メタデータ) (2024-03-22T10:51:31Z) - Visual-Tactile Sensing for In-Hand Object Reconstruction [38.42487660352112]
我々は、視覚触覚による手動オブジェクト再構成フレームワーク textbfVTacO を提案し、手動オブジェクト再構成のために textbfVTacOH に拡張する。
シミュレーション環境であるVT-Simは、剛性オブジェクトと変形可能なオブジェクトの両方のハンドオブジェクトインタラクションの生成をサポートする。
論文 参考訳(メタデータ) (2023-03-25T15:16:31Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - VisTaNet: Attention Guided Deep Fusion for Surface Roughness
Classification [0.0]
本稿では,既存の触覚データセットを付加した視覚データセットを提案する。
4種類の融合戦略を用いて視覚・触覚データを融合する新しい深層融合アーキテクチャを提案する。
本モデルでは触覚のみに比べて表面粗さ分類精度が97.22%向上した。
論文 参考訳(メタデータ) (2022-09-18T09:37:06Z) - S$^2$Contact: Graph-based Network for 3D Hand-Object Contact Estimation
with Semi-Supervised Learning [70.72037296392642]
モノクロ画像から接触を学習できる新しい半教師付きフレームワークを提案する。
具体的には、大規模データセットにおける視覚的および幾何学的整合性制約を利用して擬似ラベルを生成する。
より正確な再構築を行うために手動インタラクションを規定するコンタクトマップを使用することの利点を示す。
論文 参考訳(メタデータ) (2022-08-01T14:05:23Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - Generative Partial Visual-Tactile Fused Object Clustering [81.17645983141773]
オブジェクトクラスタリングのためのGenerative Partial Visual-Tactile Fused(GPVTF)フレームワークを提案する。
条件付きクロスモーダルクラスタリング生成逆ネットワークを開発し、一方のモダリティ条件を他方のモダリティ上で合成する。
最後に、擬似ラベルに基づく2つのKL分割損失を用いて、対応するモダリティ固有エンコーダを更新する。
論文 参考訳(メタデータ) (2020-12-28T02:37:03Z) - TactileSGNet: A Spiking Graph Neural Network for Event-based Tactile
Object Recognition [17.37142241982902]
フレキシブルでイベント駆動の電子スキンの新しい進歩は、すぐに人間に似たタッチ認識能力を持つロボットを養うかもしれない。
これらのユニークな特徴は、触覚学習には適さない畳み込み特徴抽出器のような、現在のディープラーニングアプローチをもたらす可能性がある。
イベントベース触覚物体認識のための新しいスパイキンググラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-01T03:35:15Z) - Segment as Points for Efficient Online Multi-Object Tracking and
Segmentation [66.03023110058464]
本稿では,コンパクトな画像表現を非秩序な2次元点クラウド表現に変換することで,セグメントに基づくインスタンス埋め込みの学習に有効な方法を提案する。
本手法は,画像ではなく,ランダムに選択された点から識別インスタンスの埋め込みを学習する,新たなトラッキング・バイ・ポイントのパラダイムを生成する。
PointTrackという名前のオンラインMOTSフレームワークは、最先端のすべてのメソッドを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-07-03T08:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。