論文の概要: UVStyle-Net: Unsupervised Few-shot Learning of 3D Style Similarity
Measure for B-Reps
- arxiv url: http://arxiv.org/abs/2105.02961v1
- Date: Wed, 28 Apr 2021 18:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 09:44:58.975261
- Title: UVStyle-Net: Unsupervised Few-shot Learning of 3D Style Similarity
Measure for B-Reps
- Title(参考訳): UVStyle-Net:B-Repsのための3次元スタイル類似度測定の教師なしFew-shot学習
- Authors: Peter Meltzer, Hooman Shayani, Amir Khasahmadi, Pradeep Kumar
Jayaraman, Aditya Sanghi and Joseph Lambourne
- Abstract要約: 境界表現(B-Reps)は、3Dコンピュータ支援設計/製造(CAD/CAM)および産業設計の業界標準です。
本稿では,事前学習された(教師なし)3Dエンコーダにおけるアクティベーションの2次統計におけるスタイル信号を利用する,B-Repsのスタイル類似度尺度であるUVStyle-Netを提案する。
- 参考スコア(独自算出の注目度): 6.214548392474976
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Boundary Representations (B-Reps) are the industry standard in 3D Computer
Aided Design/Manufacturing (CAD/CAM) and industrial design due to their
fidelity in representing stylistic details. However, they have been ignored in
the 3D style research. Existing 3D style metrics typically operate on meshes or
pointclouds, and fail to account for end-user subjectivity by adopting fixed
definitions of style, either through crowd-sourcing for style labels or
hand-crafted features. We propose UVStyle-Net, a style similarity measure for
B-Reps that leverages the style signals in the second order statistics of the
activations in a pre-trained (unsupervised) 3D encoder, and learns their
relative importance to a subjective end-user through few-shot learning. Our
approach differs from all existing data-driven 3D style methods since it may be
used in completely unsupervised settings, which is desirable given the lack of
publicly available labelled B-Rep datasets. More importantly, the few-shot
learning accounts for the inherent subjectivity associated with style. We show
quantitatively that our proposed method with B-Reps is able to capture stronger
style signals than alternative methods on meshes and pointclouds despite its
significantly greater computational efficiency. We also show it is able to
generate meaningful style gradients with respect to the input shape, and that
few-shot learning with as few as two positive examples selected by an end-user
is sufficient to significantly improve the style measure. Finally, we
demonstrate its efficacy on a large unlabeled public dataset of CAD models.
Source code and data will be released in the future.
- Abstract(参考訳): B-Reps(Bundary Representations)は、3D Computer Aided Design/Manufacturing (CAD/CAM)の業界標準であり、スタイリスティックな詳細を表現している。
しかし、3Dスタイルの研究では無視されている。
既存の3Dスタイルのメトリクスは、メッシュやポイントクラウドで運用されるのが一般的で、スタイルの固定された定義を採用することでエンドユーザの主観性を考慮できない。
本稿では,事前学習(教師なし)3dエンコーダにおけるアクティベーションの2次統計において,スタイル信号を利用したb-repsのスタイル類似度尺度であるuvstyle-netを提案する。
提案手法は,B-Repデータセットが公開されていないことを考えると,完全に教師なしの設定で使用することができるため,既存のデータ駆動型3Dスタイルの手法と異なる。
さらに重要なことに、数少ない学習はスタイルに固有の主観性に関係している。
我々は,B-Repsを用いた提案手法が,計算効率が著しく高いにもかかわらず,メッシュやポイントクラウドの代替手法よりも強いスタイル信号を捕捉できることを定量的に示す。
また,入力形状に関して有意義なスタイル勾配を生成できることを示すとともに,エンドユーザが選択した肯定的な例を2つも持たない,わずかなショット学習でスタイル尺度を格段に改善できることを示す。
最後に,CADモデルの大規模公開データセット上での有効性を示す。
ソースコードとデータは将来的にリリースされる予定だ。
関連論文リスト
- Dual-Perspective Knowledge Enrichment for Semi-Supervised 3D Object
Detection [55.210991151015534]
本稿では, DPKE という新しい2次元知識豊か化手法を提案する。
我々のDPKEは、データパースペクティブと機能パースペクティブという2つの観点から、限られたトレーニングデータ、特にラベルなしデータの知識を豊かにしています。
論文 参考訳(メタデータ) (2024-01-10T08:56:07Z) - Weakly Supervised 3D Object Detection via Multi-Level Visual Guidance [81.68608983602581]
本稿では,3次元ラベルを必要とせずに2次元ドメインと3次元ドメイン間の制約を活用できるフレームワークを提案する。
具体的には、LiDARと画像特徴をオブジェクト認識領域に基づいて整列する特徴レベルの制約を設計する。
第二に、出力レベルの制約は、2Dと投影された3Dボックスの推定の重なりを強制するために開発される。
第3に、トレーニングレベルの制約は、視覚データと整合した正確で一貫した3D擬似ラベルを生成することによって利用される。
論文 参考訳(メタデータ) (2023-12-12T18:57:25Z) - Cross-modal and Cross-domain Knowledge Transfer for Label-free 3D
Segmentation [23.110443633049382]
本稿では,画像と点雲の関係を網羅的に探究することで,クロスモーダル・クロスドメイン適応に挑戦する新しい手法を提案する。
KITTI360 と GTA5 の知識を用いて,セマンティック KITTI 上の3次元クラウドセマンティックセマンティックセマンティックスセグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-19T14:29:57Z) - Hierarchical Supervision and Shuffle Data Augmentation for 3D
Semi-Supervised Object Detection [90.32180043449263]
最先端の3Dオブジェクト検出器は通常、高品質な3Dアノテーションを備えた大規模データセットで訓練される。
自然な治療法は、限られた量のラベル付きサンプルと豊富なラベル付きサンプルを活用することで、半教師付き学習(SSL)を採用することである。
本稿では,HSSDA(Hierarchical Supervision and Shuffle Data Augmentation)の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T02:09:32Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - COARSE3D: Class-Prototypes for Contrastive Learning in Weakly-Supervised
3D Point Cloud Segmentation [16.072116380353393]
COARSE3Dは、3Dセグメンテーションのための新しいアーキテクチャに依存しない対照的な学習戦略である。
我々は、クラスワイドなグローバルデータセット情報を効率的にキャプチャするプロトタイプメモリバンクを、キーとして機能する少数のプロトタイプに活用する。
実験では、3つの挑戦的な現実世界の屋外データセットのベースラインを上回り、0.001%のアノテーションで作業します。
論文 参考訳(メタデータ) (2022-10-04T17:54:53Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。