論文の概要: The Normalized Difference Layer: A Differentiable Spectral Index Formulation for Deep Learning
- arxiv url: http://arxiv.org/abs/2601.06777v1
- Date: Sun, 11 Jan 2026 05:03:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.978078
- Title: The Normalized Difference Layer: A Differentiable Spectral Index Formulation for Deep Learning
- Title(参考訳): 正規化差分層:深層学習のための微分可能スペクトル指数定式化
- Authors: Ali Lotfi, Adam Carter, Mohammad Meysami, Thuan Ha, Kwabena Nketia, Steve Shirtliffe,
- Abstract要約: ニューラルネットモジュールである正規化差分層を導入する。
我々はこの層をディープラーニングアーキテクチャに統合するための完全な数学的枠組みを提案する。
実験により、この層を用いたモデルが標準多層パーセプトロンと同様の分類精度に達することが示された。
- 参考スコア(独自算出の注目度): 0.5131152350448098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Normalized difference indices have been a staple in remote sensing for decades. They stay reliable under lighting changes produce bounded values and connect well to biophysical signals. Even so, they are usually treated as a fixed pre processing step with coefficients set to one, which limits how well they can adapt to a specific learning task. In this study, we introduce the Normalized Difference Layer that is a differentiable neural network module. The proposed method keeps the classical idea but learns the band coefficients from data. We present a complete mathematical framework for integrating this layer into deep learning architectures that uses softplus reparameterization to ensure positive coefficients and bounded denominators. We describe forward and backward pass algorithms enabling end to end training through backpropagation. This approach preserves the key benefits of normalized differences, namely illumination invariance and outputs bounded to $[-1,1]$ while allowing gradient descent to discover task specific band weightings. We extend the method to work with signed inputs, so the layer can be stacked inside larger architectures. Experiments show that models using this layer reach similar classification accuracy to standard multilayer perceptrons while using about 75\% fewer parameters. They also handle multiplicative noise well, at 10\% noise accuracy drops only 0.17\% versus 3.03\% for baseline MLPs. The learned coefficient patterns stay consistent across different depths.
- Abstract(参考訳): 通常の差分指数は、数十年間リモートセンシングにおいて必須の指標である。
照明が変化しても信頼性が保たれ、境界値が生成され、生体物理信号にうまく接続する。
それでも、それらは通常、係数を1に設定した固定前処理ステップとして扱われる。
本研究では,ニューラルネットワークモジュールである正規化差分層について述べる。
提案手法は古典的なアイデアを保ちながら,データからバンド係数を学習する。
正の係数と有界分母を確保するためにソフトプラス再パラメータ化を用いるディープラーニングアーキテクチャにこの層を統合するための完全な数学的枠組みを提案する。
本稿では,前向きと後向きのパスアルゴリズムを用いて,逆プロパゲーションによるエンドツーエンドのトレーニングを実現する。
このアプローチは正規化差の鍵となる利点、すなわち照明の不変性と出力を$[-1,1]$に制限し、勾配降下によりタスク固有のバンド重み付けを発見できる。
署名された入力を扱うようにメソッドを拡張して、より大きなアーキテクチャ内でレイヤを積み重ねることができます。
実験により、この層を用いたモデルは、約75倍のパラメータを使用しながら、標準的な多層パーセプトロンと同様の分類精度に達することが示された。
また、乗法ノイズもうまく処理するが、10\%のノイズ精度は0.17\%、ベースラインMLPは3.03\%である。
学習された係数パターンは、異なる深さにわたって一貫している。
関連論文リスト
- BALI: Learning Neural Networks via Bayesian Layerwise Inference [6.7819070167076045]
我々はベイズニューラルネットワークを学習し,それを多変量ベイズ線形回帰モデルのスタックとして扱う新しい手法を提案する。
主なアイデアは、各レイヤの目標出力を正確に知っていれば、階層的に後方に推論することである。
これらの擬似ターゲットをフォワードパスから出力する層として定義し、対象関数のバックプロパゲーションによって更新する。
論文 参考訳(メタデータ) (2024-11-18T22:18:34Z) - Old Optimizer, New Norm: An Anthology [3.471637998699967]
それぞれの手法は、凸性の仮定を伴わない正方形の一階法として理解することができると論じる。
この観察を一般化することにより、トレーニングアルゴリズムのための新しいデザインスペースをグラフ化する。
ニューラルネットワークを慎重に成熟させるというこのアイデアが、より安定し、スケーラブルで、実際に高速なトレーニングにつながることを期待しています。
論文 参考訳(メタデータ) (2024-09-30T14:26:12Z) - Unified Gradient-Based Machine Unlearning with Remain Geometry Enhancement [29.675650285351768]
深層ニューラルネットワークのプライバシーと信頼性を高めるために、機械学習(MU)が登場した。
近似MUは大規模モデルの実用的手法である。
本稿では,最新の学習方向を暗黙的に近似する高速スローパラメータ更新手法を提案する。
論文 参考訳(メタデータ) (2024-09-29T15:17:33Z) - Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Learning strides in convolutional neural networks [34.20666933112202]
この研究は、学習可能なステップを持つ最初のダウンサンプリング層であるDiffStrideを紹介している。
音声と画像の分類実験は,ソリューションの汎用性と有効性を示す。
論文 参考訳(メタデータ) (2022-02-03T16:03:36Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - GradInit: Learning to Initialize Neural Networks for Stable and
Efficient Training [59.160154997555956]
ニューラルネットワークを初期化するための自動化およびアーキテクチャ手法であるgradinitを提案する。
各ネットワーク層の分散は、SGDまたはAdamの単一ステップが最小の損失値をもたらすように調整される。
また、学習率のウォームアップを伴わずに、オリジナルのPost-LN Transformerを機械翻訳用にトレーニングすることもできる。
論文 参考訳(メタデータ) (2021-02-16T11:45:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。