論文の概要: Neural Gradient Regularizer
- arxiv url: http://arxiv.org/abs/2308.16612v1
- Date: Thu, 31 Aug 2023 10:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 14:55:37.238385
- Title: Neural Gradient Regularizer
- Title(参考訳): 神経勾配調整剤
- Authors: Shuang Xu, Yifan Wang, Zixiang Zhao, Jiangjun Peng, Xiangyong Cao,
Deyu Meng
- Abstract要約: 全深度変動(TDV)は特徴写像の幅を仮定して導入された。
ニューラルネットワークの出力として勾配マップを表現するニューラルネットワーク勾配正規化器(NGR)を提案する。
NGRは、さまざまなイメージタイプと異なる画像処理タスクに適用でき、ゼロショット学習方式で機能する。
- 参考スコア(独自算出の注目度): 57.35542016001644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Owing to its significant success, the prior imposed on gradient maps has
consistently been a subject of great interest in the field of image processing.
Total variation (TV), one of the most representative regularizers, is known for
its ability to capture the sparsity of gradient maps. Nonetheless, TV and its
variants often underestimate the gradient maps, leading to the weakening of
edges and details whose gradients should not be zero in the original image.
Recently, total deep variation (TDV) has been introduced, assuming the sparsity
of feature maps, which provides a flexible regularization learned from
large-scale datasets for a specific task. However, TDV requires retraining when
the image or task changes, limiting its versatility. In this paper, we propose
a neural gradient regularizer (NGR) that expresses the gradient map as the
output of a neural network. Unlike existing methods, NGR does not rely on the
sparsity assumption, thereby avoiding the underestimation of gradient maps. NGR
is applicable to various image types and different image processing tasks,
functioning in a zero-shot learning fashion, making it a versatile and
plug-and-play regularizer. Extensive experimental results demonstrate the
superior performance of NGR over state-of-the-art counterparts for a range of
different tasks, further validating its effectiveness and versatility.
- Abstract(参考訳): その大きな成功により、グラデーションマップへの事前の強制は、一貫して画像処理の分野で大きな関心を集めている。
最も代表的な正規化子の1つであるtotal variation (tv)は、勾配写像のスパーシティを捉える能力で知られている。
それにもかかわらず、テレビとその変種は、しばしば勾配写像を過小評価し、元の画像では勾配がゼロでないようなエッジや詳細が弱まる。
近年,特定のタスクの大規模データセットから学習したフレキシブルな正規化を提供する機能マップの幅を前提として,全深度変動(TDV)が導入されている。
しかし、TDVは画像やタスクが変更されたときに再トレーニングを必要とし、その汎用性を制限する。
本稿では、ニューラルネットワークの出力として勾配マップを表現するニューラルネットワーク勾配正規化器(NGR)を提案する。
既存の方法とは異なり、NGRは空間性仮定に頼らず、勾配写像の過小評価を避ける。
NGRは様々なイメージタイプや様々な画像処理タスクに適用でき、ゼロショット学習方式で機能し、汎用的でプラグアンドプレイのレギュレータである。
広範囲な実験結果から,NGRは様々なタスクに対する最先端のタスクよりも優れた性能を示し,その有効性と汎用性を検証した。
関連論文リスト
- VDIP-TGV: Blind Image Deconvolution via Variational Deep Image Prior
Empowered by Total Generalized Variation [21.291149526862416]
ディープイメージ事前(DIP)は、教師付きモデルではなく、単一のイメージのレギュレータとしてディープネットワークを使用することを提案する。
本稿では,全一般化変分法(TGV)をVDIPと組み合わせ,これらの欠点を克服する。
提案したVDIP-TGVは、TGVを介して余分な勾配情報を補足することにより、画像のエッジと詳細を効果的に回復する。
論文 参考訳(メタデータ) (2023-10-30T12:03:18Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Deep Generalized Unfolding Networks for Image Restoration [16.943609020362395]
画像復元のためのDeep Generalized Unfolding Network (DGUNet)を提案する。
我々は、勾配推定戦略をPGDアルゴリズムの勾配降下ステップに統合する。
我々の手法は、最先端の性能、解釈可能性、一般化可能性の点で優れている。
論文 参考訳(メタデータ) (2022-04-28T08:39:39Z) - Low-rank Meets Sparseness: An Integrated Spatial-Spectral Total
Variation Approach to Hyperspectral Denoising [11.79762223888294]
勾配マップ(LRSTV)の疎度と低ランクの先行特性を同時に特徴付ける新しいテレビレギュラー化を提案する。
新しい正規化は勾配写像自体にスパーシリティを課すだけでなく、フーリエ変換後の勾配写像上のランクを罰する。
これは自然に勾配写像の空間性と低ランクの先行を符号化しており、したがって元の像の固有の構造をより忠実に反映することが期待されている。
論文 参考訳(メタデータ) (2022-04-27T12:31:55Z) - TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency [72.9106103283475]
我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
論文 参考訳(メタデータ) (2021-10-11T12:00:20Z) - Layerwise Optimization by Gradient Decomposition for Continual Learning [78.58714373218118]
ディープニューラルネットワークは、様々な領域で最先端の超人的パフォーマンスを実現します。
タスクを逐次学習する場合、ネットワークは「破滅的忘れ」と呼ばれる過去のタスクの知識を忘れやすい。
論文 参考訳(メタデータ) (2021-05-17T01:15:57Z) - Input Bias in Rectified Gradients and Modified Saliency Maps [0.0]
唾液マップは、分類や潜伏概念にかなりの影響を及ぼす入力特徴を特定する直感的な方法を提供する。
Rectified Gradients(英語版)のような従来の唾液マップへのいくつかの変更は、解釈可能性を高めるために導入されている。
入力画像の暗黒領域は、クラスや概念に関係があっても、Rectified Gradients を用いた塩分マップでは強調されないことを示す。
論文 参考訳(メタデータ) (2020-11-10T09:45:13Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。