論文の概要: Classifying Novel 3D-Printed Objects without Retraining: Towards Post-Production Automation in Additive Manufacturing
- arxiv url: http://arxiv.org/abs/2603.07465v1
- Date: Sun, 08 Mar 2026 05:05:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.612672
- Title: Classifying Novel 3D-Printed Objects without Retraining: Towards Post-Production Automation in Additive Manufacturing
- Title(参考訳): 新たな3Dプリントオブジェクトをリトレーニングなしで分類する - 添加物製造における後処理自動化を目指して-
- Authors: Fanis Mathioulakis, Gorjan Radevski, Silke GC Cleuren, Michel Janssens, Brecht Das, Koen Schauwaert, Tinne Tuytelaars,
- Abstract要約: CADモデルと3Dプリントオブジェクトの実際の写真を組み合わせるデータセットであるThingiPrintを紹介する。
回転イン目的のコントラスト微調整により、これまで見られなかった3Dプリントオブジェクトの効果的なプロトタイプベース分類が可能となることを示す。
- 参考スコア(独自算出の注目度): 27.275367350088075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable classification of 3D-printed objects is essential for automating post-production workflows in industrial additive manufacturing. Despite extensive automation in other stages of the printing pipeline, this task still relies heavily on manual inspection, as the set of objects to be classified can change daily, making frequent model retraining impractical. Automating the identification step is therefore critical for improving operational efficiency. A vision model that could classify any set of objects by utilizing their corresponding CAD models and avoiding retraining would be highly beneficial in this setting. To enable systematic evaluation of vision models on this task, we introduce ThingiPrint, a new publicly available dataset that pairs CAD models with real photographs of their 3D-printed counterparts. Using ThingiPrint, we benchmark a range of existing vision models on the task of 3D-printed object classification. We additionally show that contrastive fine-tuning with a rotation-invariant objective allows effective prototype-based classification of previously unseen 3D-printed objects. By relying solely on the available CAD models, this avoids the need for retraining when new objects are introduced. Experiments show that this approach outperforms standard pretrained baselines, suggesting improved generalization and practical relevance for real-world use.
- Abstract(参考訳): 工業用添加物製造における生産後のワークフローを自動化するためには、3Dプリントオブジェクトの信頼性の高い分類が不可欠である。
印刷パイプラインの他の段階における広範囲な自動化にもかかわらず、このタスクは依然として手作業による検査に大きく依存している。
したがって、識別ステップの自動化は、運用効率の向上に不可欠である。
対応するCADモデルを利用して任意のオブジェクトの集合を分類し、再トレーニングを避けるビジョンモデルは、この設定で非常に有益である。
このタスクで視覚モデルの体系的評価を可能にするために,CADモデルと実際の3Dプリント画像とをペアリングする,新しい公開データセットであるThingiPrintを導入する。
ThingiPrintを用いて3Dプリントオブジェクト分類のタスクにおいて,既存の視覚モデルの範囲をベンチマークする。
さらに、回転不変目的による対照的な微調整により、これまで見られなかった3Dプリントオブジェクトの効果的なプロトタイプベース分類が可能となることを示す。
利用可能なCADモデルにのみ依存することにより、新しいオブジェクトが導入されたときの再トレーニングが不要になる。
実験により、本手法は標準的な事前学習ベースラインよりも優れており、現実の用途における一般化と実践的妥当性の向上が示唆されている。
関連論文リスト
- Leveraging Automatic CAD Annotations for Supervised Learning in 3D Scene Understanding [29.147693306652414]
合成CADモデルの自動検索によって生成されたデータは,教師付き深層学習モデルの訓練において,高品質な基底真理として利用できることを示す。
本結果は,アノテーションのコストを大幅に削減しつつ,モデル性能を向上させる自動3Dアノテーションの可能性を強調した。
3Dシーン理解における将来の研究を支援するため、トレーニングされたモデルとともにSCANnotate++と呼ばれるアノテーションをリリースします。
論文 参考訳(メタデータ) (2025-04-18T09:33:45Z) - Drive-1-to-3: Enriching Diffusion Priors for Novel View Synthesis of Real Vehicles [81.29018359825872]
本稿では,実世界の課題に対して,大規模な事前学習モデルを微調整するための一連の優れたプラクティスを統合する。
具体的には,合成データと実運転データとの相違を考慮に入れたいくつかの戦略を開発する。
我々の洞察は、先行芸術よりも新しいビュー合成のためのFIDを68.8%値下げする効果のある微調整につながる。
論文 参考訳(メタデータ) (2024-12-19T03:39:13Z) - Keypoint Abstraction using Large Models for Object-Relative Imitation Learning [78.92043196054071]
多様なタスクや環境にまたがる新しいオブジェクト構成やインスタンスへの一般化は、ロボット工学において重要な課題である。
キーポイントに基づく表現は、本質的なオブジェクトキャプチャ機能のための簡潔な表現として有効であることが証明されている。
本稿では,タスク関連およびクロスインスタンス整合性キーポイントの自動生成に,大規模な事前学習型視覚言語モデルを活用するフレームワークであるKALMを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:37:31Z) - Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication [50.541882834405946]
我々は,テキストから3Dへの自動的実装であるAtlas3Dを紹介する。
提案手法は,新しい微分可能シミュレーションに基づく損失関数と,物理的にインスパイアされた正規化を組み合わせたものである。
我々は、Atlas3Dの有効性を広範囲な生成タスクを通して検証し、シミュレーションと実環境の両方で結果の3Dモデルを検証する。
論文 参考訳(メタデータ) (2024-05-28T18:33:18Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - A novel method for object detection using deep learning and CAD models [0.4588028371034407]
目的の検出(OD)は生産ラインの品質管理に使用することができる企業のための重要なコンピュータ視野問題です。
近年,Deep Learning (DL) 手法により,複雑な実世界の画像上でのODモデルの訓練が可能になった。
本稿では,オブジェクトのCADモデルを用いた完全自動化手法を導入し,このオブジェクトを検出するための完全に訓練されたODモデルを返す。
論文 参考訳(メタデータ) (2021-02-12T19:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。