論文の概要: SDHSI-Net: Learning Better Representations for Hyperspectral Images via Self-Distillation
- arxiv url: http://arxiv.org/abs/2601.07416v1
- Date: Mon, 12 Jan 2026 10:57:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.349247
- Title: SDHSI-Net: Learning Better Representations for Hyperspectral Images via Self-Distillation
- Title(参考訳): SDHSI-Net:自己蒸留によるハイパースペクトル画像のより良い表現の学習
- Authors: Prachet Dev Singh, Shyamsundar Paramasivam, Sneha Barman, Mainak Singha, Ankit Jha, Girish Mishra, Biplab Banerjee,
- Abstract要約: ハイパースペクトル画像(HSI)分類は、その高スペクトル次元と限られたラベル付きデータのために固有の課題を示す。
従来のディープラーニングモデルは、過度な適合と高い計算コストに悩まされることが多い。
自己蒸留 (SD) は、ネットワークが自身の予測から学習する知識蒸留の一種である。
- 参考スコア(独自算出の注目度): 20.532231645997864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperspectral image (HSI) classification presents unique challenges due to its high spectral dimensionality and limited labeled data. Traditional deep learning models often suffer from overfitting and high computational costs. Self-distillation (SD), a variant of knowledge distillation where a network learns from its own predictions, has recently emerged as a promising strategy to enhance model performance without requiring external teacher networks. In this work, we explore the application of SD to HSI by treating earlier outputs as soft targets, thereby enforcing consistency between intermediate and final predictions. This process improves intra-class compactness and inter-class separability in the learned feature space. Our approach is validated on two benchmark HSI datasets and demonstrates significant improvements in classification accuracy and robustness, highlighting the effectiveness of SD for spectral-spatial learning. Codes are available at https://github.com/Prachet-Dev-Singh/SDHSI.
- Abstract(参考訳): ハイパースペクトル画像(HSI)分類は、その高スペクトル次元と限られたラベル付きデータのために固有の課題を示す。
従来のディープラーニングモデルは、過度な適合と高い計算コストに悩まされることが多い。
ネットワークが自身の予測から学習する知識蒸留の変種である自己蒸留(SD)は、最近、外部の教師ネットワークを必要とせずにモデル性能を向上させるための有望な戦略として登場した。
本研究では,初期の出力をソフトターゲットとして扱い,中間予測と最終予測の整合性を高めることによって,HSIへのSDの適用について検討する。
このプロセスは、学習された特徴空間におけるクラス内コンパクト性とクラス間分離性を改善する。
提案手法は2つのベンチマークHSIデータセットで検証され,分類精度とロバスト性を大幅に向上し,スペクトル空間学習におけるSDの有効性を強調した。
コードはhttps://github.com/Prachet-Dev-Singh/SDHSIで公開されている。
関連論文リスト
- Exploring Structural Degradation in Dense Representations for Self-supervised Learning [84.52554180480037]
自己教師付き学習(SSL)における直感的な現象を観察する。
我々は、この現象を自己教師付きDense Degradation(SDD)と呼び、16の最先端SSLメソッドに一貫した存在を示す。
本稿では,クラス関連尺度と有効次元尺度からなるDense Expression Structure Estimator (DSE)を紹介する。
論文 参考訳(メタデータ) (2025-10-20T08:40:16Z) - Hybrid Multi-Stage Learning Framework for Edge Detection: A Survey [0.0]
本稿では,CNN(Convolutional Neural Network)機能抽出とSVM(Support Vector Machine)を統合したハイブリッド多段階学習フレームワークを提案する。
提案手法は特徴表現と分類段階を分離し,堅牢性と解釈可能性を向上させる。
論文 参考訳(メタデータ) (2025-03-26T13:06:31Z) - The Effect of Optimal Self-Distillation in Noisy Gaussian Mixture Model [2.355460994057843]
自己蒸留(SD)は、機械学習において単純だが強力なアプローチとして注目されている。
広く使われているにもかかわらず、その効果の基盤となるメカニズムはいまだ不明である。
論文 参考訳(メタデータ) (2025-01-27T17:20:48Z) - Scalable and Effective Negative Sample Generation for Hyperedge Prediction [55.9298019975967]
ハイパーエッジ予測は、Webベースのアプリケーションにおける複雑なマルチエンタリティ相互作用を理解するために不可欠である。
従来の手法では、正と負のインスタンスの不均衡により、高品質な負のサンプルを生成するのが困難であることが多い。
本稿では,これらの課題に対処するために拡散モデルを利用するハイパーエッジ予測(SEHP)フレームワークのスケーラブルで効果的な負のサンプル生成について述べる。
論文 参考訳(メタデータ) (2024-11-19T09:16:25Z) - Enhancing Cognitive Workload Classification Using Integrated LSTM Layers and CNNs for fNIRS Data Analysis [13.74551296919155]
本稿では、ディープラーニングモデルにおける畳み込みニューラルネットワーク(CNN)の有効性に対する長期記憶層の影響について検討する。
LSTMレイヤを統合することで、モデルがfNIRSデータ内の時間的依存関係をキャプチャし、認知状態をより包括的に理解することが可能になる。
論文 参考訳(メタデータ) (2024-07-22T11:28:34Z) - ADASR: An Adversarial Auto-Augmentation Framework for Hyperspectral and
Multispectral Data Fusion [54.668445421149364]
HSI(Deep Learning-based Hyperspectral Image)は、HSI(Hyperspectral Image)とMSI(Multispectral Image)を深層ニューラルネットワーク(DNN)に融合させることにより、高空間分解能HSI(HR-HSI)を生成することを目的としている。
本稿では, HSI-MSI 融合のためのデータ多様性を向上するために, HSI-MSI サンプルペアの自動最適化と拡張を行う新しい逆自動データ拡張フレームワーク ADASR を提案する。
論文 参考訳(メタデータ) (2023-10-11T07:30:37Z) - Exploring Multi-Timestep Multi-Stage Diffusion Features for Hyperspectral Image Classification [16.724299091453844]
拡散に基づくHSI分類法は,手動で選択した単一段階の特徴のみを利用する。
MTMSDと呼ばれる,HSI分類のための多段階多段階拡散機能を初めて検討した,拡散に基づく新しい特徴学習フレームワークを提案する。
提案手法は,HSI分類の最先端手法,特にヒューストン2018データセットより優れている。
論文 参考訳(メタデータ) (2023-06-15T08:56:58Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Learning A 3D-CNN and Transformer Prior for Hyperspectral Image
Super-Resolution [80.93870349019332]
本稿では,CNN の代わりに Transformer を用いて HSI の事前学習を行う新しい HSISR 手法を提案する。
具体的には、まず勾配アルゴリズムを用いてHSISRモデルを解き、次に展開ネットワークを用いて反復解過程をシミュレートする。
論文 参考訳(メタデータ) (2021-11-27T15:38:57Z) - Improving Deep Hyperspectral Image Classification Performance with
Spectral Unmixing [3.84448093764973]
本稿では,多元HSI分類法を提案する。
我々は、データセット固有のオートエンコーダにより、スペクトル領域から豊富な領域へのすべてのHSIを変換する。
次に、複数のHSIからの豊富な表現を収集して拡大データセットを形成する。
論文 参考訳(メタデータ) (2020-04-01T17:14:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。