論文の概要: Transparent Fragments Contour Estimation via Visual-Tactile Fusion for Autonomous Reassembly
- arxiv url: http://arxiv.org/abs/2603.20290v1
- Date: Wed, 18 Mar 2026 14:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-24 19:11:38.807789
- Title: Transparent Fragments Contour Estimation via Visual-Tactile Fusion for Autonomous Reassembly
- Title(参考訳): 視覚触覚融合による自律的再組み立てのための透明フラグメント輪郭推定
- Authors: Qihao Lin, Borui Chen, Yuping Zhou, Jianing Wu, Yulan Guo, Weishi Zheng, Chongkun Xia,
- Abstract要約: 視覚触覚融合に基づく一般的な透過的断片輪郭推定フレームワークを提案する。
触覚情報を視覚的手がかりと融合させることにより,視覚触覚融合材料を提案する。
実験の結果,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 69.97596838714595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The contour estimation of transparent fragments is very important for autonomous reassembly, especially in the fields of precision optical instrument repair, cultural relic restoration, and identification of other precious device broken accidents. Different from general intact transparent objects, the contour estimation of transparent fragments face greater challenges due to strict optical properties, irregular shapes and edges. To address this issue, a general transparent fragments contour estimation framework based on visual-tactile fusion is proposed in this paper. First, we construct the transparent fragment dataset named TransFrag27K, which includes a multiscene synthetic data of broken fragments from multiple types of transparent objects, and a scalable synthetic data generation pipeline. Secondly, we propose a visual grasping position detection network named TransFragNet to identify, locate and segment the sampling grasping position. And, we use a two-finger gripper with Gelsight Mini sensors to obtain reconstructed tactile information of the lateral edge of the fragments. By fusing this tactile information with visual cues, a visual-tactile fusion material classifier is proposed. Inspired by the way humans estimate a fragment's contour combining vision and touch, we introduce a general transparent fragment contour estimation framework based on visual-tactile fusion, demonstrates strong performance in real-world validation. Finally, a multi-dimensional similarity metrics based contour matching and reassembly algorithm is proposed, providing a reproducible benchmark for evaluating visual-tactile contour estimation and fragment reassembly. The experimental results demonstrate the validity of the proposed framework. The dataset and codes are available at https://github.com/Keithllin/Transparent-Fragments-Contour-Estimation.
- Abstract(参考訳): 透明な破片の輪郭推定は、特に精密な光学機器の修理、文化的な修復、その他の貴重な機器の故障事故の特定などにおいて、自律的な再組み立てにおいて非常に重要である。
一般に無傷な透明な物体とは異なり、透明な破片の輪郭推定は、厳密な光学特性、不規則な形状、エッジのためにより大きな課題に直面している。
本稿では,視覚触覚融合に基づく一般的な透過的断片輪郭推定フレームワークを提案する。
まず,複数種類の透明物体からの破片のマルチシーン合成データと,スケーラブルな合成データ生成パイプラインを含む,TransFrag27Kという透明フラグメントデータセットを構築した。
次に,TransFragNet という名前の視覚的把握位置検出ネットワークを提案する。
また、Gelsight Miniセンサーを搭載した2本のフィンガーグリップを用いて、フラグメントの側面端の触覚情報を再構成する。
この触覚情報を視覚的手がかりと融合させることで、視覚的触覚融合物質分類器を提案する。
視覚と触覚を組み合わせたフラグメントの輪郭推定法に着想を得て,視覚・触覚融合に基づく一般的な透過的なフラグメント輪郭推定フレームワークを導入し,実世界の検証において高い性能を示す。
最後に,多次元類似度指標に基づく輪郭マッチングと再集合アルゴリズムを提案し,視覚触覚輪郭推定とフラグメント再集合の評価のための再現可能なベンチマークを提供する。
実験の結果,提案手法の有効性が示された。
データセットとコードはhttps://github.com/Keithllin/Transparent-Fragments-Contour-Estimationで公開されている。
関連論文リスト
- DiffTrans: Differentiable Geometry-Materials Decomposition for Reconstructing Transparent Objects [53.83670041249326]
多視点画像から透明な物体を再構成することは、光伝搬の複雑な性質と不確定な振る舞いのために難しい課題である。
本稿では,透明物体の形状や材料を効率よく分解・再構成できる,DiffTransと呼ばれる透明物体の識別可能なレンダリングフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-28T02:21:31Z) - Active Cross-Modal Visuo-Tactile Perception of Deformable Linear Objects [1.9735804580163874]
本稿では,変形可能な線形物体(DLO)の3次元形状再構成のためのクロスモーダルビズオ触覚認識フレームワークを提案する。
視覚に大きく依存する既存の手法とは異なり、提案手法は基礎モデルに基づく視覚知覚と適応探索を統合している。
以上の結果から,本フレームワークは,大部分閉塞しても,単純・高度に湾曲した単線または複数本のケーブル構成を正確に再構築することを示した。
論文 参考訳(メタデータ) (2026-01-20T13:57:59Z) - TransBridge: Boost 3D Object Detection by Scene-Level Completion with Transformer Decoder [66.22997415145467]
本稿では,スパース領域における検出機能を改善する共同補完・検出フレームワークを提案する。
具体的には,トランスブリッジ(TransBridge)を提案する。トランスブリッジ(TransBridge)はトランスフォーマーをベースとした新しいアップサンプリングブロックである。
その結果,本フレームワークは,各手法の平均精度(mAP)が0.7から1.5の範囲で,エンドツーエンドの3Dオブジェクト検出を一貫して改善していることがわかった。
論文 参考訳(メタデータ) (2025-12-12T00:08:03Z) - TransNet: Transparent Object Manipulation Through Category-Level Pose
Estimation [6.844391823478345]
局所化深度補完と表面正規化を用いたカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインを提案する。
その結果,トランスネットは透明物体のポーズ推定精度の向上を実現していることがわかった。
われわれはTransNetを使って、ロボットピック・アンド・プレイスと注ぐタスクのための自律的透明なオブジェクト操作システムを構築している。
論文 参考訳(メタデータ) (2023-07-23T18:38:42Z) - Visual-tactile Fusion for Transparent Object Grasping in Complex Backgrounds [12.449232689517538]
透明物体把握のための視覚触覚融合フレームワークを提案する。
把握位置検出、触覚キャリブレーション、視覚触覚融合に基づく分類が含まれる。
提案フレームワークは,視覚と触覚の利点を相乗化し,透明物体の把握効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-11-30T02:27:41Z) - TransNet: Category-Level Transparent Object Pose Estimation [6.844391823478345]
視覚的特徴の区別の欠如により、透明な物体は不透明な物体よりも検出と位置決めが困難になる。
第二の課題は、通常不透明物体の知覚に使用される一般的な深度センサーが透明物体の正確な深度測定を得ることができないことである。
局所的な深度補完と表面正規推定を用いてカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインであるTransNetを提案する。
論文 参考訳(メタデータ) (2022-08-22T01:34:31Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Generative Partial Visual-Tactile Fused Object Clustering [81.17645983141773]
オブジェクトクラスタリングのためのGenerative Partial Visual-Tactile Fused(GPVTF)フレームワークを提案する。
条件付きクロスモーダルクラスタリング生成逆ネットワークを開発し、一方のモダリティ条件を他方のモダリティ上で合成する。
最後に、擬似ラベルに基づく2つのKL分割損失を用いて、対応するモダリティ固有エンコーダを更新する。
論文 参考訳(メタデータ) (2020-12-28T02:37:03Z) - Refined Plane Segmentation for Cuboid-Shaped Objects by Leveraging Edge
Detection [63.942632088208505]
本稿では,セグメント化された平面マスクを画像に検出されたエッジと整列するための後処理アルゴリズムを提案する。
これにより、立方体形状の物体に制限を加えながら、最先端のアプローチの精度を高めることができます。
論文 参考訳(メタデータ) (2020-03-28T18:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。