論文の概要: Enhancing Few-Shot Classification of Benchmark and Disaster Imagery with ATTBHFA-Net
- arxiv url: http://arxiv.org/abs/2510.18326v1
- Date: Tue, 21 Oct 2025 06:24:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.023182
- Title: Enhancing Few-Shot Classification of Benchmark and Disaster Imagery with ATTBHFA-Net
- Title(参考訳): ATTBHFA-Netによるベンチマーク画像と災害画像のFew-Shot分類の強化
- Authors: Gao Yu Lee, Tanmoy Dam, Md Meftahul Ferdaus, Daniel Puiu Poenar, Vu Duong,
- Abstract要約: Few-Shot Learningは、データ不足に対する有望なアプローチを提供する。
災害画像はクラス内変異とクラス間類似度が高い。
本稿では,アテンションに基づくBhattacharyya-Hellinger Feature Aggregation Network (ATTBHFA-Net)を紹介する。
- 参考スコア(独自算出の注目度): 3.5823947126325564
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The increasing frequency of natural and human-induced disasters necessitates advanced visual recognition techniques capable of analyzing critical photographic data. With progress in artificial intelligence and resilient computational systems, rapid and accurate disaster classification has become crucial for efficient rescue operations. However, visual recognition in disaster contexts faces significant challenges due to limited and diverse data from the difficulties in collecting and curating comprehensive, high-quality disaster imagery. Few-Shot Learning (FSL) provides a promising approach to data scarcity, yet current FSL research mainly relies on generic benchmark datasets lacking remote-sensing disaster imagery, limiting its practical effectiveness. Moreover, disaster images exhibit high intra-class variation and inter-class similarity, hindering the performance of conventional metric-based FSL methods. To address these issues, this paper introduces the Attention-based Bhattacharyya-Hellinger Feature Aggregation Network (ATTBHFA-Net), which linearly combines the Bhattacharyya coefficient and Hellinger distances to compare and aggregate feature probability distributions for robust prototype formation. The Bhattacharyya coefficient serves as a contrastive margin that enhances inter-class separability, while the Hellinger distance regularizes same-class alignment. This framework parallels contrastive learning but operates over probability distributions rather than embedded feature points. Furthermore, a Bhattacharyya-Hellinger distance-based contrastive loss is proposed as a distributional counterpart to cosine similarity loss, used jointly with categorical cross-entropy to significantly improve FSL performance. Experiments on four FSL benchmarks and two disaster image datasets demonstrate the superior effectiveness and generalization of ATTBHFA-Net compared to existing approaches.
- Abstract(参考訳): 自然災害や人による災害の発生頻度の増加は、重要な写真データを分析できる高度な視覚認識技術を必要とする。
人工知能とレジリエントな計算システムの進歩により、効率的な救助活動において、迅速かつ正確な災害分類が重要になっている。
しかし、災害状況における視覚的認識は、包括的で高品質な災害画像の収集・キュレーションの難しさから、限られた多種多様なデータによって大きな課題に直面している。
FSL(Few-Shot Learning)は、データ不足に対する有望なアプローチを提供するが、現在のFSLの研究は主に、リモートセンシングの災害画像に欠ける一般的なベンチマークデータセットに依存しており、その実用性は制限されている。
さらに, 災害画像のクラス内変動やクラス間類似性も高く, 従来の計量ベースFSL法の性能を阻害している。
これらの問題に対処するため,本論文では,Bhattacharyya-Hellinger Feature Aggregation Network (ATTBHFA-Net)を提案する。
Bhattacharyya係数はクラス間の分離性を高め、Hellinger距離はクラス間のアライメントを規則化する。
このフレームワークは対照的な学習を並列に行うが、組込み特徴点ではなく確率分布で操作する。
さらに, Bhattacharyya-Hellinger 距離に基づくコントラスト損失をコサイン類似性損失の分布として提案し, カテゴリー的クロスエントロピーと併用してFSL性能を著しく向上させる。
4つのFSLベンチマークと2つの災害画像データセットの実験は、既存のアプローチと比較してATTBHFA-Netの有効性と一般化が優れていることを示した。
関連論文リスト
- Physics-informed DeepCT: Sinogram Wavelet Decomposition Meets Masked Diffusion [9.126628956920904]
拡散モデルではスパース・ビュー・コンピュート・トモグラフィー(SVCT)の再建に有意な可能性がある。
SVCT再構成のためのSinogram-based Wavelet random decomposition and Random mask diffusion Model (SWARM)を提案する。
論文 参考訳(メタデータ) (2025-01-17T03:16:15Z) - Efficient Diffusion as Low Light Enhancer [63.789138528062225]
RATR(Reflectance-Aware Trajectory Refinement)は、イメージの反射成分を用いて教師の軌跡を洗練するための、シンプルで効果的なモジュールである。
textbfReDDiT (textbfDistilled textbfTrajectory) は低照度画像強調(LLIE)に適した効率的で柔軟な蒸留フレームワークである。
論文 参考訳(メタデータ) (2024-10-16T08:07:18Z) - Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,先行クラスと新たに登場したクラスプロトタイプ間の効果的な表現を学習する手法を提案する。
クラス間距離を減少させ,クラス間距離を増大させることにより,新しいクラスを潜在表現に組み込むコントラスト的損失を導入する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - You Only Train Once: A Unified Framework for Both Full-Reference and No-Reference Image Quality Assessment [45.62136459502005]
本稿では,完全な参照 (FR) と非参照 (NR) IQA を行うネットワークを提案する。
まず、入力画像から多レベル特徴を抽出するためにエンコーダを用いる。
FRおよびNR入力のユニバーサルアダプタとして階層的注意(HA)モジュールを提案する。
エンコーダの浅い層と深い層との間の特徴相関を調べるために, セマンティック・ディストーション・アウェア (SDA) モジュールを提案する。
論文 参考訳(メタデータ) (2023-10-14T11:03:04Z) - Enabling Quartile-based Estimated-Mean Gradient Aggregation As Baseline
for Federated Image Classifications [5.5099914877576985]
Federated Learning(FL)は、機密データを保護し、モデルパフォーマンスを改善しながら、分散コラボレーションを可能にすることによって、ディープニューラルネットワークのトレーニング方法に革命をもたらした。
本稿では,これらの課題に対処するだけでなく,FLシステムにおける高度な集約技術に対して$mathsfbaseline$として基本的な参照ポイントを提供する,Estimated Mean Aggregation (EMA) という革新的なソリューションを紹介する。
論文 参考訳(メタデータ) (2023-09-21T17:17:28Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Magnitude Matters: Fixing SIGNSGD Through Magnitude-Aware Sparsification
in the Presence of Data Heterogeneity [60.791736094073]
通信オーバーヘッドは、ディープニューラルネットワークの分散トレーニングにおいて、大きなボトルネックのひとつになっています。
本稿では,SIGNSGDの非収束問題に対処する等級化方式を提案する。
提案手法は,Fashion-MNIST, CIFAR-10, CIFAR-100データセットを用いて検証した。
論文 参考訳(メタデータ) (2023-02-19T17:42:35Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。