論文の概要: UVStyle-Net: Unsupervised Few-shot Learning of 3D Style Similarity
Measure for B-Reps
- arxiv url: http://arxiv.org/abs/2105.02961v1
- Date: Wed, 28 Apr 2021 18:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 09:44:58.975261
- Title: UVStyle-Net: Unsupervised Few-shot Learning of 3D Style Similarity
Measure for B-Reps
- Title(参考訳): UVStyle-Net:B-Repsのための3次元スタイル類似度測定の教師なしFew-shot学習
- Authors: Peter Meltzer, Hooman Shayani, Amir Khasahmadi, Pradeep Kumar
Jayaraman, Aditya Sanghi and Joseph Lambourne
- Abstract要約: 境界表現(B-Reps)は、3Dコンピュータ支援設計/製造(CAD/CAM)および産業設計の業界標準です。
本稿では,事前学習された(教師なし)3Dエンコーダにおけるアクティベーションの2次統計におけるスタイル信号を利用する,B-Repsのスタイル類似度尺度であるUVStyle-Netを提案する。
- 参考スコア(独自算出の注目度): 6.214548392474976
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Boundary Representations (B-Reps) are the industry standard in 3D Computer
Aided Design/Manufacturing (CAD/CAM) and industrial design due to their
fidelity in representing stylistic details. However, they have been ignored in
the 3D style research. Existing 3D style metrics typically operate on meshes or
pointclouds, and fail to account for end-user subjectivity by adopting fixed
definitions of style, either through crowd-sourcing for style labels or
hand-crafted features. We propose UVStyle-Net, a style similarity measure for
B-Reps that leverages the style signals in the second order statistics of the
activations in a pre-trained (unsupervised) 3D encoder, and learns their
relative importance to a subjective end-user through few-shot learning. Our
approach differs from all existing data-driven 3D style methods since it may be
used in completely unsupervised settings, which is desirable given the lack of
publicly available labelled B-Rep datasets. More importantly, the few-shot
learning accounts for the inherent subjectivity associated with style. We show
quantitatively that our proposed method with B-Reps is able to capture stronger
style signals than alternative methods on meshes and pointclouds despite its
significantly greater computational efficiency. We also show it is able to
generate meaningful style gradients with respect to the input shape, and that
few-shot learning with as few as two positive examples selected by an end-user
is sufficient to significantly improve the style measure. Finally, we
demonstrate its efficacy on a large unlabeled public dataset of CAD models.
Source code and data will be released in the future.
- Abstract(参考訳): B-Reps(Bundary Representations)は、3D Computer Aided Design/Manufacturing (CAD/CAM)の業界標準であり、スタイリスティックな詳細を表現している。
しかし、3Dスタイルの研究では無視されている。
既存の3Dスタイルのメトリクスは、メッシュやポイントクラウドで運用されるのが一般的で、スタイルの固定された定義を採用することでエンドユーザの主観性を考慮できない。
本稿では,事前学習(教師なし)3dエンコーダにおけるアクティベーションの2次統計において,スタイル信号を利用したb-repsのスタイル類似度尺度であるuvstyle-netを提案する。
提案手法は,B-Repデータセットが公開されていないことを考えると,完全に教師なしの設定で使用することができるため,既存のデータ駆動型3Dスタイルの手法と異なる。
さらに重要なことに、数少ない学習はスタイルに固有の主観性に関係している。
我々は,B-Repsを用いた提案手法が,計算効率が著しく高いにもかかわらず,メッシュやポイントクラウドの代替手法よりも強いスタイル信号を捕捉できることを定量的に示す。
また,入力形状に関して有意義なスタイル勾配を生成できることを示すとともに,エンドユーザが選択した肯定的な例を2つも持たない,わずかなショット学習でスタイル尺度を格段に改善できることを示す。
最後に,CADモデルの大規模公開データセット上での有効性を示す。
ソースコードとデータは将来的にリリースされる予定だ。
関連論文リスト
- Enhancing 2D Representation Learning with a 3D Prior [21.523007105586217]
視覚データの堅牢で効果的な表現を学習することは、コンピュータビジョンの基本的な課題である。
従来、これはラベル付きデータによるトレーニングモデルによって達成される。
本稿では,3次元構造を明示的に強制することで,既存の自己管理手法を強化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T17:55:22Z) - Cross-Modal Self-Training: Aligning Images and Pointclouds to Learn Classification without Labels [69.55622471172941]
CLIPのような大規模ビジョン2D視覚言語モデルは、一般化可能な(オープン語彙)3D視覚モデルを学ぶために3Dエンコーダと整列することができる。
ゼロショット3Dビジョンモデルのラベルなし分類性能を改善するために、クロスモーダル自己訓練(Cross-MoST: Cross-Modal Self-Training)を提案する。
論文 参考訳(メタデータ) (2024-04-15T21:30:50Z) - Dual-Perspective Knowledge Enrichment for Semi-Supervised 3D Object
Detection [55.210991151015534]
本稿では, DPKE という新しい2次元知識豊か化手法を提案する。
我々のDPKEは、データパースペクティブと機能パースペクティブという2つの観点から、限られたトレーニングデータ、特にラベルなしデータの知識を豊かにしています。
論文 参考訳(メタデータ) (2024-01-10T08:56:07Z) - Weakly Supervised 3D Object Detection via Multi-Level Visual Guidance [72.6809373191638]
本稿では,3次元ラベルを必要とせずに2次元ドメインと3次元ドメイン間の制約を活用できるフレームワークを提案する。
具体的には、LiDARと画像特徴をオブジェクト認識領域に基づいて整列する特徴レベルの制約を設計する。
第二に、出力レベルの制約は、2Dと投影された3Dボックスの推定の重なりを強制するために開発される。
第3に、トレーニングレベルの制約は、視覚データと整合した正確で一貫した3D擬似ラベルを生成することによって利用される。
論文 参考訳(メタデータ) (2023-12-12T18:57:25Z) - Hierarchical Supervision and Shuffle Data Augmentation for 3D
Semi-Supervised Object Detection [90.32180043449263]
最先端の3Dオブジェクト検出器は通常、高品質な3Dアノテーションを備えた大規模データセットで訓練される。
自然な治療法は、限られた量のラベル付きサンプルと豊富なラベル付きサンプルを活用することで、半教師付き学習(SSL)を採用することである。
本稿では,HSSDA(Hierarchical Supervision and Shuffle Data Augmentation)の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T02:09:32Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - COARSE3D: Class-Prototypes for Contrastive Learning in Weakly-Supervised
3D Point Cloud Segmentation [16.072116380353393]
COARSE3Dは、3Dセグメンテーションのための新しいアーキテクチャに依存しない対照的な学習戦略である。
我々は、クラスワイドなグローバルデータセット情報を効率的にキャプチャするプロトタイプメモリバンクを、キーとして機能する少数のプロトタイプに活用する。
実験では、3つの挑戦的な現実世界の屋外データセットのベースラインを上回り、0.001%のアノテーションで作業します。
論文 参考訳(メタデータ) (2022-10-04T17:54:53Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。