論文の概要: Hyperspectral data augmentation with transformer-based diffusion models
- arxiv url: http://arxiv.org/abs/2510.08363v1
- Date: Thu, 09 Oct 2025 15:50:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.172226
- Title: Hyperspectral data augmentation with transformer-based diffusion models
- Title(参考訳): 変圧器を用いた拡散モデルによるハイパースペクトルデータの増大
- Authors: Mattia Ferrari, Lorenzo Bruzzone,
- Abstract要約: 本稿では,誘導拡散モデルを利用したデータ拡張手法を提案する。
本手法が森林分類タスクにおける10種類の森林タイプに対する有効性を評価する。
- 参考スコア(独自算出の注目度): 13.80382608774738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The introduction of new generation hyperspectral satellite sensors, combined with advancements in deep learning methodologies, has significantly enhanced the ability to discriminate detailed land-cover classes at medium-large scales. However, a significant challenge in deep learning methods is the risk of overfitting when training networks with small labeled datasets. In this work, we propose a data augmentation technique that leverages a guided diffusion model. To effectively train the model with a limited number of labeled samples and to capture complex patterns in the data, we implement a lightweight transformer network. Additionally, we introduce a modified weighted loss function and an optimized cosine variance scheduler, which facilitate fast and effective training on small datasets. We evaluate the effectiveness of the proposed method on a forest classification task with 10 different forest types using hyperspectral images acquired by the PRISMA satellite. The results demonstrate that the proposed method outperforms other data augmentation techniques in both average and weighted average accuracy. The effectiveness of the method is further highlighted by the stable training behavior of the model, which addresses a common limitation in the practical application of deep generative models for data augmentation.
- Abstract(参考訳): 次世代のハイパースペクトル衛星センサの導入とディープラーニング手法の進歩が組み合わさって、中規模で詳細な土地被覆クラスを識別する能力が大幅に向上した。
しかし、ディープラーニング手法における重要な課題は、小さなラベル付きデータセットでネットワークをトレーニングする際に過度に適合するリスクである。
本研究では,誘導拡散モデルを利用したデータ拡張手法を提案する。
限られたラベル付きサンプルでモデルを効果的に訓練し、データ中の複雑なパターンをキャプチャするために、軽量なトランスフォーマーネットワークを実装した。
さらに、修正重み付き損失関数と最適化されたコサイン分散スケジューラを導入し、小さなデータセットの高速かつ効果的なトレーニングを容易にする。
PRISMA衛星が取得したハイパースペクトル画像を用いて,森林タイプ別10種類の森林分類課題における提案手法の有効性を評価する。
その結果,提案手法は平均および重み付き平均精度において,他のデータ拡張手法よりも優れていた。
この手法の有効性は,データ拡張のための深層生成モデルの実践的適用において,共通の限界に対処するモデルの安定した訓練行動によってさらに強調される。
関連論文リスト
- Leveraging Semi-Supervised Learning to Enhance Data Mining for Image Classification under Limited Labeled Data [35.431340001608476]
従来のデータマイニング手法は、大規模で高次元で複雑なデータに直面すると不十分である。
本研究では,ラベルのないデータを利用するアルゴリズムの能力向上を目的とした,半教師付き学習手法を提案する。
具体的には、自己学習法を採用し、画像の特徴抽出と分類のための畳み込みニューラルネットワーク(CNN)と組み合わせる。
論文 参考訳(メタデータ) (2024-11-27T18:59:50Z) - A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Learning-Based Biharmonic Augmentation for Point Cloud Classification [79.13962913099378]
Biharmonic Augmentation (BA)は、新しくて効率的なデータ拡張技術である。
BAは、既存の3D構造にスムーズな非剛性変形を与えることにより、点雲データを多様化する。
本稿では,先進的なオンライン強化システムであるAdvTuneについて紹介する。
論文 参考訳(メタデータ) (2023-11-10T14:04:49Z) - Hybridization of Capsule and LSTM Networks for unsupervised anomaly
detection on multivariate data [0.0]
本稿では,Long-Short-Term-Memory(LSTM)とCapsule Networksを1つのネットワークに結合した新しいNNアーキテクチャを提案する。
提案手法は教師なし学習手法を用いて大量のラベル付きトレーニングデータを見つける際の問題を克服する。
論文 参考訳(メタデータ) (2022-02-11T10:33:53Z) - The Imaginative Generative Adversarial Network: Automatic Data
Augmentation for Dynamic Skeleton-Based Hand Gesture and Human Action
Recognition [27.795763107984286]
本稿では、入力データの分布を近似し、この分布から新しいデータをサンプリングする新しい自動データ拡張モデルを提案する。
以上の結果から,拡張戦略は訓練が高速であり,ニューラルネットワークと最先端手法の両方の分類精度を向上させることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-05-27T11:07:09Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Dynamic Scale Training for Object Detection [111.33112051962514]
本稿では,オブジェクト検出におけるスケール変動問題を軽減するために,動的スケールトレーニングパラダイム(DST)を提案する。
提案したDSTのスケール変動処理に対する有効性を示す実験結果を得た。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
論文 参考訳(メタデータ) (2020-04-26T16:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。