論文の概要: Supervised Neural Discrete Universal Denoiser for Adaptive Denoising
- arxiv url: http://arxiv.org/abs/2111.12350v1
- Date: Wed, 24 Nov 2021 09:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 16:17:56.951106
- Title: Supervised Neural Discrete Universal Denoiser for Adaptive Denoising
- Title(参考訳): 適応デノイジングのための教師付きニューラルネットワーク離散ユニバーサルデノイザー
- Authors: Sungmin Cha, Seonwoo Min, Sungroh Yoon, and Taesup Moon
- Abstract要約: 最近開発されたニューラルDUDEは、ニューラルネットワークをベースとした適応型離散復号器である。
我々は、与えられた雑音データに基づいて、パラメータの適応的な微調整とニューラルデューデの教師付き事前学習を適合させる。
- 参考スコア(独自算出の注目度): 34.13248601205547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We improve the recently developed Neural DUDE, a neural network-based
adaptive discrete denoiser, by combining it with the supervised learning
framework. Namely, we make the supervised pre-training of Neural DUDE
compatible with the adaptive fine-tuning of the parameters based on the given
noisy data subject to denoising. As a result, we achieve a significant
denoising performance boost compared to the vanilla Neural DUDE, which only
carries out the adaptive fine-tuning step with randomly initialized parameters.
Moreover, we show the adaptive fine-tuning makes the algorithm robust such that
a noise-mismatched or blindly trained supervised model can still achieve the
performance of that of the matched model. Furthermore, we make a few
algorithmic advancements to make Neural DUDE more scalable and deal with
multi-dimensional data or data with larger alphabet size. We systematically
show our improvements on two very diverse datasets, binary images and DNA
sequences.
- Abstract(参考訳): 我々は,ニューラルネットワークに基づく適応型離散記述器であるNeural DUDEを,教師付き学習フレームワークと組み合わせて改良した。
すなわち,ニューラルデューデの教師付き事前学習を,与えられた雑音データに基づいてパラメータの適応的微調整と整合させる。
その結果,ランダム初期化パラメータを用いた適応的微調整ステップのみを実行するバニラニューラルバイドと比較して,大きなデノージング性能向上を達成できた。
さらに,適応的な微調整により,雑音のミスマッチや盲目的に訓練された教師付きモデルでも,マッチングモデルの性能を達成できることを示す。
さらに、我々は、Neural DUDEをよりスケーラブルにし、多次元データやより大きいアルファベットサイズのデータを扱うアルゴリズムの進歩をいくつか行っている。
我々は2つの非常に多様なデータセット、バイナリ画像とDNA配列について、体系的に改善を示す。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Efficient Noise Mitigation for Enhancing Inference Accuracy in DNNs on Mixed-Signal Accelerators [4.416800723562206]
我々は、アナログニューラルネットワークの精度に基づいて、プロセス誘起および老化に関連するアナログコンピューティングコンポーネントのバリエーションをモデル化する。
事前学習モデルの選択した層間に挿入された遮音ブロックを導入する。
雑音レベルに対するモデルのロバスト性を大幅に向上させることを実証した。
論文 参考訳(メタデータ) (2024-09-27T08:45:55Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Noise Injection Node Regularization for Robust Learning [0.0]
ノイズインジェクションノード規則化(NINR)は、トレーニング期間中に、構造化されたノイズをディープニューラルネットワーク(DNN)に注入する手法である。
本研究は、NINRの下で訓練されたフィードフォワードDNNに対する各種試験データ摂動に対するロバスト性を大幅に改善する理論的および実証的な証拠を示す。
論文 参考訳(メタデータ) (2022-10-27T20:51:15Z) - Neural Clamping: Joint Input Perturbation and Temperature Scaling for Neural Network Calibration [62.4971588282174]
我々はニューラルクランプ法と呼ばれる新しい後処理キャリブレーション法を提案する。
実験の結果,Neural Clampingは最先端の処理後のキャリブレーション法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-23T14:18:39Z) - Adaptive Denoising via GainTuning [17.72738152112575]
画像復調のためのディープ畳み込みニューラルネットワーク(CNN)は通常、大規模なデータセットでトレーニングされる。
本稿では,大規模データセット上で事前学習したCNNモデルを,個々のテスト画像に対して適応的かつ選択的に調整する「GainTuning」を提案する。
GainTuningは、標準的な画像デノゲティングベンチマークで最先端のCNNを改善し、ホールドアウトテストセットのほぼすべての画像上でのデノゲティング性能を向上させる。
論文 参考訳(メタデータ) (2021-07-27T13:35:48Z) - Image Denoising using Attention-Residual Convolutional Neural Networks [0.0]
本稿では,学習に基づく新たな非盲検手法であるAttention Residual Convolutional Neural Network (ARCNN)を提案し,その拡張としてFlexible Attention Residual Convolutional Neural Network (FARCNN)を提案する。
ARCNNはガウス語とポアソン語で約0.44dBと0.96dBの平均PSNR結果を達成し、FARCNNはARCNNに比べて若干パフォーマンスが悪くても非常に一貫した結果を示した。
論文 参考訳(メタデータ) (2021-01-19T16:37:57Z) - Operational vs Convolutional Neural Networks for Image Denoising [25.838282412957675]
畳み込みニューラルネットワーク(CNN)は近年,適応学習能力により画像デノナイズ技術として好まれている。
データ変換のコアに新たな非線形性を埋め込むための柔軟性を向上するヘテロジニアスネットワークモデルを提案する。
ONNとCNNの比較評価は、線形演算子に富んだONNが等価かつよく知られた深層構成のCNNに対して優れたノイズ発生性能を達成できるという決定的な証拠が得られる。
論文 参考訳(メタデータ) (2020-09-01T12:15:28Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - Variational Denoising Network: Toward Blind Noise Modeling and Removal [59.36166491196973]
ブラインド画像のデノイングはコンピュータビジョンにおいて重要な問題であるが、非常に難しい問題である。
本稿では,ノイズ推定と画像デノーミングを併用した新しい変分推論手法を提案する。
論文 参考訳(メタデータ) (2019-08-29T15:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。