論文の概要: Mitigating Long-Tail Bias via Prompt-Controlled Diffusion Augmentation
- arxiv url: http://arxiv.org/abs/2602.04749v1
- Date: Wed, 04 Feb 2026 16:49:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.638293
- Title: Mitigating Long-Tail Bias via Prompt-Controlled Diffusion Augmentation
- Title(参考訳): Prompt-Controlled Diffusion Augmentation によるロングテールバイアスの緩和
- Authors: Buddhi Wijenayake, Nichula Wasalathilake, Roshan Godaliyadda, Vijitha Herath, Parakrama Ekanayake, Vishal M. Patel,
- Abstract要約: 本稿では,ドメイン構成とセマンティック構成の両方を明示的に制御し,ペア付きラベルサンプルを合成する,プロンプト制御拡散増強フレームワークを提案する。
遠隔センシングセグメンテーションにおける長期バイアスを軽減するための実践的メカニズムとして,マイノリティクラスに集中したゲインを示し,都市・農村の一般化を改善した。
- 参考スコア(独自算出の注目度): 36.94429692322632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation of high-resolution remote-sensing imagery is critical for urban mapping and land-cover monitoring, yet training data typically exhibits severe long-tailed pixel imbalance. In the dataset LoveDA, this challenge is compounded by an explicit Urban/Rural split with distinct appearance and inconsistent class-frequency statistics across domains. We present a prompt-controlled diffusion augmentation framework that synthesizes paired label--image samples with explicit control of both domain and semantic composition. Stage~A uses a domain-aware, masked ratio-conditioned discrete diffusion model to generate layouts that satisfy user-specified class-ratio targets while respecting learned co-occurrence structure. Stage~B translates layouts into photorealistic, domain-consistent images using Stable Diffusion with ControlNet guidance. Mixing the resulting ratio and domain-controlled synthetic pairs with real data yields consistent improvements across multiple segmentation backbones, with gains concentrated on minority classes and improved Urban and Rural generalization, demonstrating controllable augmentation as a practical mechanism to mitigate long-tail bias in remote-sensing segmentation. Source codes, pretrained models, and synthetic datasets are available at \href{https://github.com/Buddhi19/SyntheticGen.git}{Github}
- Abstract(参考訳): 高解像度リモートセンシング画像のセマンティックセグメンテーションは、都市マッピングや土地被覆監視において重要であるが、トレーニングデータは通常、厳しい長尾画素の不均衡を示す。
LoveDAのデータセットでは、この課題は、ドメイン間で異なる外観と一貫性のないクラス周波数統計を持つ明示的なUrban/Rural分割によって複雑化されている。
本稿では,ドメイン構成とセマンティック構成の両方を明示的に制御し,ペア付きラベルサンプルを合成する,プロンプト制御拡散増強フレームワークを提案する。
Stage~Aは、学習された共起構造を尊重しながら、ユーザ指定のクラス比ターゲットを満たすレイアウトを生成するために、ドメイン対応のマスク付き比条件付き離散拡散モデルを使用する。
Stage~B は、Stable Diffusion with ControlNet ガイダンスを用いて、レイアウトをフォトリアリスティックでドメイン一貫性のある画像に変換する。
結果の比率とドメイン制御された合成ペアを実データと混合すると、複数のセグメンテーションのバックボーン間で一貫した改善が得られ、マイノリティクラスに集中し、都市と農村の一般化が向上し、遠隔センシングセグメンテーションにおける長い尾バイアスを軽減するための実用的なメカニズムとして制御可能な拡張が実証された。
ソースコード、事前訓練されたモデル、合成データセットは \href{https://github.com/Buddhi19/SyntheticGen.git}{Github} で入手できる。
関連論文リスト
- Uncertainty-Aware ControlNet: Bridging Domain Gaps with Synthetic Image Generation [0.9509895098323274]
この作業では、ラベルのないドメインからデータを使用して、コントロールネットをトレーニングする手法を導入している。
この不確実性は、ある画像が下流タスクのトレーニング分布の一部ではないことを示している。
ControlNetによって、ターゲットドメインから高い不確実性を持つ注釈付きデータを作成することができます。
論文 参考訳(メタデータ) (2025-10-13T12:41:28Z) - Frequency Domain-Based Diffusion Model for Unpaired Image Dehazing [92.61216319417208]
そこで本稿では,未確認データにおける有益な知識を十分に活用するための,新しい周波数領域ベース拡散モデルを提案する。
拡散モデル(DM)が示す強い生成能力に着想を得て,周波数領域再構成の観点からデハージング課題に取り組む。
論文 参考訳(メタデータ) (2025-07-02T01:22:46Z) - Style Transfer with Diffusion Models for Synthetic-to-Real Domain Adaptation [3.7051961231919393]
拡散モデルを用いた意味論的一貫したスタイル伝達のための2つの新しい手法を提案する。
GTA5をソースとして,Cityscapes/ACDCをターゲットドメインとして実験したところ,FIDスコアが低く,コンテンツ保存性が向上した高品質な画像が得られた。
論文 参考訳(メタデータ) (2025-05-22T08:11:10Z) - SiamSeg: Self-Training with Contrastive Learning for Unsupervised Domain Adaptation Semantic Segmentation in Remote Sensing [13.549403813487022]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付けされたソースドメインデータを活用しながら、ラベル付けされていないターゲットドメインデータからモデルを学習することを可能にする。
対照的な学習を UDA に統合し,対象領域における意味情報を捕捉するモデルの能力を高めることを提案する。
我々の手法であるSimSegは既存の手法より優れ、最先端の結果が得られます。
論文 参考訳(メタデータ) (2024-10-17T11:59:39Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - Transferring and Regularizing Prediction for Semantic Segmentation [115.88957139226966]
本稿では,セマンティックセグメンテーションの本質的特性を利用して,モデル伝達におけるそのような問題を緩和する。
本稿では,モデル転送を教師なし方式で正規化するための制約として固有特性を課す予測伝達の正規化器(RPT)を提案する。
GTA5とSynTHIA(synthetic data)で訓練されたモデルの都市景観データセット(アーバンストリートシーン)への転送に関するRTPの提案を検証するため、大規模な実験を行った。
論文 参考訳(メタデータ) (2020-06-11T16:19:41Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。