論文の概要: Trainable Loss Weights in Super-Resolution
- arxiv url: http://arxiv.org/abs/2301.10575v2
- Date: Mon, 27 Nov 2023 23:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 17:05:36.140310
- Title: Trainable Loss Weights in Super-Resolution
- Title(参考訳): 超解像におけるトレーニング可能な損失重量
- Authors: Arash Chaichi Mellatshahi, Shohreh Kasaei
- Abstract要約: 本稿では,画素単位の損失に対する新たな重み付け法を提案する。
この手法により、画像の一般的な構造に基づいてトレーニング可能な重みを使用できる。
また、畳み込みニューラルネットワークにより直接重みを推定できるように、損失重量の比較基準を導入する。
- 参考スコア(独自算出の注目度): 12.103012959947055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, limited research has discussed the loss function in the
super-resolution process. The majority of those studies have only used
perceptual similarity conventionally. This is while the development of
appropriate loss can improve the quality of other methods as well. In this
article, a new weighting method for pixel-wise loss is proposed. With the help
of this method, it is possible to use trainable weights based on the general
structure of the image and its perceptual features while maintaining the
advantages of pixel-wise loss. Also, a criterion for comparing weights of loss
is introduced so that the weights can be estimated directly by a convolutional
neural network. In addition, in this article, the expectation-maximization
method is used for the simultaneous estimation super-resolution network and
weighting network. In addition, a new activation function, called "FixedSum",
is introduced which can keep the sum of all components of vector constants
while keeping the output components between zero and one. As experimental
results shows, weighted loss by the proposed method leads to better results
than the unweighted loss and weighted loss based on uncertainty in both
signal-to-noise and perceptual similarity senses on the state-of-the-art
networks. Code is available online.
- Abstract(参考訳): 近年,超解像過程における損失関数の研究が限られている。
これらの研究の大部分は、従来の知覚的類似性のみを用いている。
これは、適切な損失の開発は、他の方法の品質も改善できる一方である。
本稿では,画素単位の損失に対する新たな重み付け法を提案する。
この方法の助けを借りて、画像の一般構造とその知覚的特徴に基づくトレーニング可能な重みを、画素単位での損失の利点を保ちながら使用することが可能である。
また、重みを畳み込みニューラルネットワークによって直接推定できるように損失重みを比較する基準を導入する。
また,本論文では,超解像ネットワークと重み付けネットワークの同時推定に期待最大化法を適用した。
さらに、「fixedsum」と呼ばれる新しいアクティベーション関数が導入され、出力成分を0と1の間に保ちながら、ベクトル定数のすべての成分の和を保持することができる。
実験結果から,提案手法による重み付き損失は,信号対雑音と知覚的類似感の両方の不確実性に基づいて,非重み付き損失と重み付き損失よりも良好な結果をもたらすことが示された。
コードはオンラインで入手できる。
関連論文リスト
- Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Random Weights Networks Work as Loss Prior Constraint for Image
Restoration [50.80507007507757]
「画像復元の優先制約としてランダムウェイトネットワークを機能させることができる」という信念を提示する。」
我々の信念は、計算コストのトレーニングやテストなしに、既存のネットワークに直接挿入することができる。
強調しておきたいのは、損失関数の領域を刺激し、現在無視されている状態を保存することです。
論文 参考訳(メタデータ) (2023-03-29T03:43:51Z) - PathProx: A Proximal Gradient Algorithm for Weight Decay Regularized
Deep Neural Networks [25.114642281756495]
ウェイト崩壊(Weight decay)は、ディープラーニングにおいて最も広く使われている正規化形式の一つである。
本稿では、勾配勾配勾配は、この目的に対して非効率なアルゴリズムであると主張している。
ReLUアクティベーションを持つニューラルネットワークの場合、重み劣化対象に対する解は異なる目的の解と等価である。
論文 参考訳(メタデータ) (2022-10-06T17:22:40Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - On Convergence of Training Loss Without Reaching Stationary Points [62.41370821014218]
ニューラルネットワークの重み変数は、損失関数の勾配が消える定常点に収束しないことを示す。
エルゴード理論の力学系に基づく新しい視点を提案する。
論文 参考訳(メタデータ) (2021-10-12T18:12:23Z) - Quantized Proximal Averaging Network for Analysis Sparse Coding [23.080395291046408]
反復アルゴリズムをトレーニング可能なネットワークに展開し,量子化前にスパーシティの学習を容易にする。
圧縮画像回復と磁気共鳴画像再構成への応用を実証する。
論文 参考訳(メタデータ) (2021-05-13T12:05:35Z) - Generic Perceptual Loss for Modeling Structured Output Dependencies [78.59700528239141]
トレーニングされた重みではなく、ネットワーク構造が重要であることを示す。
我々は、出力の構造化依存関係をモデル化するためにランダムに重み付けされたディープcnnが使用できることを実証する。
論文 参考訳(メタデータ) (2021-03-18T23:56:07Z) - Preprint: Norm Loss: An efficient yet effective regularization method
for deep neural networks [7.214681039134488]
斜め多様体に基づく重み付き軟規則化法を提案する。
本手法は, CIFAR-10, CIFAR-100, ImageNet 2012データセットを用いて評価した。
論文 参考訳(メタデータ) (2021-03-11T10:24:49Z) - The Golden Ratio of Learning and Momentum [0.5076419064097732]
本稿では,シナプスにおけるニューラル信号処理による情報理論的損失関数を提案する。
すべての結果は、損失、学習率、モーメントが密接に関連していることを示している。
論文 参考訳(メタデータ) (2020-06-08T17:08:13Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - SoftAdapt: Techniques for Adaptive Loss Weighting of Neural Networks
with Multi-Part Loss Functions [1.2891210250935146]
我々は,多部損失関数に対する関数重みを動的に変化させる,SoftAdaptと呼ばれる手法群を提案する。
SoftAdaptは数学的に直感的で、計算効率が良く、実装も簡単です。
論文 参考訳(メタデータ) (2019-12-27T22:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。