論文の概要: Generative Data Augmentation for Object Point Cloud Segmentation
- arxiv url: http://arxiv.org/abs/2505.17783v1
- Date: Fri, 23 May 2025 11:56:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.043195
- Title: Generative Data Augmentation for Object Point Cloud Segmentation
- Title(参考訳): オブジェクトポイントクラウドセグメンテーションのための生成データ拡張
- Authors: Dekai Zhu, Stefan Gavranovic, Flavien Boussuge, Benjamin Busam, Slobodan Ilic,
- Abstract要約: 本稿では,ポイントクラウドセグメンテーショントレーニングのための3段階生成データ拡張(GDA)パイプラインを提案する。
提案手法では,少量のラベル付きサンプルしか必要としないが,生成した変種と擬ラベル付きサンプルでトレーニングデータを充実させる。
- 参考スコア(独自算出の注目度): 19.99464119493308
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Data augmentation is widely used to train deep learning models to address data scarcity. However, traditional data augmentation (TDA) typically relies on simple geometric transformation, such as random rotation and rescaling, resulting in minimal data diversity enrichment and limited model performance improvement. State-of-the-art generative models for 3D shape generation rely on the denoising diffusion probabilistic models and manage to generate realistic novel point clouds for 3D content creation and manipulation. Nevertheless, the generated 3D shapes lack associated point-wise semantic labels, restricting their usage in enlarging the training data for point cloud segmentation tasks. To bridge the gap between data augmentation techniques and the advanced diffusion models, we extend the state-of-the-art 3D diffusion model, Lion, to a part-aware generative model that can generate high-quality point clouds conditioned on given segmentation masks. Leveraging the novel generative model, we introduce a 3-step generative data augmentation (GDA) pipeline for point cloud segmentation training. Our GDA approach requires only a small amount of labeled samples but enriches the training data with generated variants and pseudo-labeled samples, which are validated by a novel diffusion-based pseudo-label filtering method. Extensive experiments on two large-scale synthetic datasets and a real-world medical dataset demonstrate that our GDA method outperforms TDA approach and related semi-supervised and self-supervised methods.
- Abstract(参考訳): データ拡張は、データの不足に対処するためにディープラーニングモデルをトレーニングするために広く使用されている。
しかし、従来のデータ拡張(TDA)は、通常、ランダムな回転や再スケーリングのような単純な幾何学的変換に依存しており、結果としてデータの多様性の増大と限られたモデル性能の改善をもたらす。
3次元形状生成のための最先端の生成モデルは、拡散確率モデルに依存し、3次元コンテンツの生成と操作のための現実的な新規点雲を生成する。
それでも生成された3D形状には関連するポイントワイドセマンティックラベルがなく、ポイントクラウドセグメンテーションタスクのトレーニングデータを拡大する際の使用を制限している。
データ拡張技術と高度な拡散モデルとのギャップを埋めるために、我々は最先端の3D拡散モデルであるLionを、与えられたセグメンテーションマスクに条件付けられた高品質な点雲を生成できる部分認識生成モデルに拡張する。
新たな生成モデルを活用することで、ポイントクラウドセグメンテーショントレーニングのための3段階生成データ拡張(GDA)パイプラインを導入する。
我々のGDAアプローチは少量のラベル付きサンプルしか必要としないが、新しい拡散に基づく擬ラベル付きフィルタ法によって検証された、生成された変種と擬ラベル付きサンプルでトレーニングデータを豊かにする。
2つの大規模合成データセットと実世界の医療データセットの大規模な実験により、我々のGDA法は、TDA法および関連する半教師付きおよび自己監督的手法よりも優れていることが示された。
関連論文リスト
- SeaLion: Semantic Part-Aware Latent Point Diffusion Models for 3D Generation [13.304150180300208]
細かなセグメンテーションラベルを持つ点雲を生成するために設計された新しい拡散モデルSeaLionを提案する。
P-CD(Part-Aware Chamfer distance)と呼ばれる新しい点雲対距離計算法も導入する。
大規模合成データセットShapeNetと実世界の医療データセットIntrAの実験は、SeaLionが世代品質と多様性において顕著なパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2025-05-23T10:38:05Z) - 3D-VirtFusion: Synthetic 3D Data Augmentation through Generative Diffusion Models and Controllable Editing [52.68314936128752]
本研究では,事前学習された大規模基盤モデルのパワーを活用して,3次元ラベル付きトレーニングデータを自動的に生成する新しいパラダイムを提案する。
各ターゲットセマンティッククラスに対して、まず、拡散モデルとチャットGPT生成したテキストプロンプトを介して、様々な構造と外観の1つのオブジェクトの2D画像を生成する。
我々は、これらの拡張画像を3Dオブジェクトに変換し、ランダムな合成によって仮想シーンを構築する。
論文 参考訳(メタデータ) (2024-08-25T09:31:22Z) - Controlling the Fidelity and Diversity of Deep Generative Models via Pseudo Density [70.14884528360199]
本稿では, GAN や拡散モデルなどのバイアス深層生成モデルへのアプローチを導入し, 忠実度の向上や多様性の向上を図ったデータ生成手法を提案する。
提案手法では, 擬似密度という, 個人サンプルの新たな測定基準を用いて, トレーニングとデータ生成の分布を操作する。
論文 参考訳(メタデータ) (2024-07-11T16:46:04Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models [1.1965844936801797]
3D LiDARデータの生成モデリングは、自律移動ロボットに有望な応用をもたらす新たな課題である。
我々は,多種多様かつ高忠実な3Dシーンポイント雲を生成可能な,LiDARデータのための新しい生成モデルR2DMを提案する。
本手法は拡散確率モデル (DDPM) を用いて構築され, 生成モデルフレームワークにおいて顕著な結果が得られた。
論文 参考訳(メタデータ) (2023-09-17T12:26:57Z) - Few-shot 3D Shape Generation [18.532357455856836]
本研究では,大領域で事前学習した生成モデルを限定データを用いて対象領域に適応させることにより,少数の3次元形状生成を実現するための最初の試みを行う。
提案手法では,ターゲット形状分布を学習するためのトレーニングデータとして,数発のターゲットサンプルのシルエットしか必要としない。
論文 参考訳(メタデータ) (2023-05-19T13:30:10Z) - 3D Neural Field Generation using Triplane Diffusion [37.46688195622667]
ニューラルネットワークの3次元認識のための効率的な拡散ベースモデルを提案する。
当社のアプローチでは,ShapeNetメッシュなどのトレーニングデータを,連続的占有フィールドに変換することによって前処理する。
本論文では,ShapeNetのオブジェクトクラスにおける3D生成の現状について述べる。
論文 参考訳(メタデータ) (2022-11-30T01:55:52Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。