論文の概要: 6D Pose Estimation on Point Cloud Data through Prior Knowledge Integration: A Case Study in Autonomous Disassembly
- arxiv url: http://arxiv.org/abs/2505.24669v1
- Date: Fri, 30 May 2025 14:58:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.013545
- Title: 6D Pose Estimation on Point Cloud Data through Prior Knowledge Integration: A Case Study in Autonomous Disassembly
- Title(参考訳): 6D Pose Estimation on Point Cloud Data through Prior Knowledge Integration: a Case Study in Self Disassembly
- Authors: Chengzhi Wu, Hao Fu, Jan-Philipp Kaiser, Erik Tabuchi Barczak, Julius Pfrommer, Gisela Lanza, Michael Heizmann, Jürgen Beyerer,
- Abstract要約: 本研究は, 製品ライフサイクルの工学的強化を目的としたスタータモータの解体に焦点を当てた。
この文脈における重要な目的は、モーターに付着したボルトの識別と6次元ポーズ推定である。
完全なボルト情報を取得することができる包括パイプラインの開発は、ボルト検出の監視を回避するために不可欠である。
- 参考スコア(独自算出の注目度): 14.307274419319574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The accurate estimation of 6D pose remains a challenging task within the computer vision domain, even when utilizing 3D point cloud data. Conversely, in the manufacturing domain, instances arise where leveraging prior knowledge can yield advancements in this endeavor. This study focuses on the disassembly of starter motors to augment the engineering of product life cycles. A pivotal objective in this context involves the identification and 6D pose estimation of bolts affixed to the motors, facilitating automated disassembly within the manufacturing workflow. Complicating matters, the presence of occlusions and the limitations of single-view data acquisition, notably when motors are placed in a clamping system, obscure certain portions and render some bolts imperceptible. Consequently, the development of a comprehensive pipeline capable of acquiring complete bolt information is imperative to avoid oversight in bolt detection. In this paper, employing the task of bolt detection within the scope of our project as a pertinent use case, we introduce a meticulously devised pipeline. This multi-stage pipeline effectively captures the 6D information with regard to all bolts on the motor, thereby showcasing the effective utilization of prior knowledge in handling this challenging task. The proposed methodology not only contributes to the field of 6D pose estimation but also underscores the viability of integrating domain-specific insights to tackle complex problems in manufacturing and automation.
- Abstract(参考訳): 6Dのポーズの正確な推定は、3Dポイントのクラウドデータを利用する場合でも、コンピュータビジョン領域内で難しい課題である。
逆に、製造領域では、事前の知識を活用することで、この取り組みの進歩がもたらされる。
本研究は, 製品ライフサイクルの工学的強化を目的としたスタータモータの解体に焦点を当てた。
この文脈における重要な目的は、モーターに付着したボルトの識別と6Dポーズの推定であり、製造ワークフロー内での自動分解を容易にすることである。
複雑な問題、オクルージョンの存在、シングルビューデータ取得の限界、特にモーターがクランプシステムに配置されている場合、特定の部分を曖昧にし、いくつかのボルトを認識不能にする。
したがって、ボルト検出の監視を回避するため、完全なボルト情報を取得することができる包括パイプラインの開発が不可欠である。
本稿では,プロジェクトの範囲内でボルト検出を行うタスクを関連するユースケースとして活用し,念入りに考案されたパイプラインを導入する。
この多段パイプラインは、モータ上の全てのボルトに関する6D情報を効果的に捕捉し、この課題に対処するための事前知識の有効活用を示す。
提案手法は, 6次元ポーズ推定の分野に寄与するだけでなく, 製造・自動化における複雑な問題に対処するために, ドメイン固有の洞察を統合する可能性も強調する。
関連論文リスト
- ASDF: Assembly State Detection Utilizing Late Fusion by Integrating 6D Pose Estimation [5.117781843071097]
医療・産業分野では、効率と安全性を確保するために、組み立てプロセスのガイダンスを提供することが重要である。
その場でのビジュアライゼーションを可能にするため、6次元のポーズ推定を利用して、拡張の正確な位置を特定することができる。
我々は,リアルタイム能動オブジェクト検出フレームワークであるYOLOv8の長所の上に構築し,アセンブリ状態検出と組み合わせて6次元ポーズ推定の課題に対処する。
論文 参考訳(メタデータ) (2024-03-25T03:30:37Z) - Advancing 6D Pose Estimation in Augmented Reality -- Overcoming Projection Ambiguity with Uncontrolled Imagery [0.0]
本研究では,拡張現実(AR)における正確な6次元ポーズ推定の課題に対処する。
本稿では,z軸変換と焦点長の推定を戦略的に分解する手法を提案する。
この手法は6次元ポーズ推定プロセスの合理化だけでなく、AR設定における3次元オブジェクトのオーバーレイの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-20T09:22:22Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - PViT-6D: Overclocking Vision Transformers for 6D Pose Estimation with
Confidence-Level Prediction and Pose Tokens [0.0]
分類トークンのカスタマイズによる直接6次元ポーズ推定のための視覚変換器の機能について検討する。
また、ほとんどの6次元ポーズ推定フレームワークに簡単に組み込むことができる、ポーズの信頼度を決定するための簡単な方法も導入する。
論文 参考訳(メタデータ) (2023-11-29T10:27:56Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - Occlusion-Aware Self-Supervised Monocular 6D Object Pose Estimation [88.8963330073454]
自己教師付き学習による新しい単眼6次元ポーズ推定手法を提案する。
ノイズの多い学生のトレーニングと差別化可能なレンダリングの現在の傾向を活用して、モデルをさらに自己監督する。
提案する自己超越法は,合成データに依存する他の方法よりも優れている。
論文 参考訳(メタデータ) (2022-03-19T15:12:06Z) - VIPose: Real-time Visual-Inertial 6D Object Pose Tracking [3.44942675405441]
本稿では,オブジェクトのポーズ追跡問題にリアルタイムに対処するために,VIPoseと呼ばれる新しいディープニューラルネットワーク(DNN)を提案する。
重要な貢献は、オブジェクトの相対的な6Dポーズを予測するために視覚的および慣性的特徴を融合する新しいDNNアーキテクチャの設計である。
このアプローチでは、最先端技術に匹敵する精度性能を示すが、リアルタイムであることにはさらなるメリットがある。
論文 参考訳(メタデータ) (2021-07-27T06:10:23Z) - PAM:Point-wise Attention Module for 6D Object Pose Estimation [2.4815579733050153]
6次元ポーズ推定は3次元回転と3次元変換の物体認識と推定を指す。
従来の手法では、精細化の過程で深度情報を利用したり、各データ空間で特徴を抽出するための異種アーキテクチャとして設計されていた。
本稿では,RGB-Dから効率よく強力な特徴を抽出できるポイントアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2020-08-12T11:29:48Z) - Self6D: Self-Supervised Monocular 6D Object Pose Estimation [114.18496727590481]
自己教師付き学習による単眼6次元ポーズ推定のアイデアを提案する。
ニューラルレンダリングの最近の進歩を活用して、注釈のない実RGB-Dデータのモデルをさらに自己監督する。
論文 参考訳(メタデータ) (2020-04-14T13:16:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。