論文の概要: DenoiseRep: Denoising Model for Representation Learning
- arxiv url: http://arxiv.org/abs/2406.08773v2
- Date: Wed, 30 Oct 2024 15:40:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:22:52.187430
- Title: DenoiseRep: Denoising Model for Representation Learning
- Title(参考訳): DenoiseRep: 表現学習のためのDenoising Model
- Authors: Zhengrui Xu, Guan'an Wang, Xiaowen Huang, Jitao Sang,
- Abstract要約: 本稿では,特徴抽出とデノナイジングによる特徴識別を改善するために,表現学習のための新しいDenoising Model(DenoiseRep)を提案する。
DenoiseRepは、インクリメンタルに機能を改善するが、利用可能であればラベルを補完するラベルフリーのアルゴリズムである。
- 参考スコア(独自算出の注目度): 17.63931025833262
- License:
- Abstract: The denoising model has been proven a powerful generative model but has little exploration of discriminative tasks. Representation learning is important in discriminative tasks, which is defined as "learning representations (or features) of the data that make it easier to extract useful information when building classifiers or other predictors". In this paper, we propose a novel Denoising Model for Representation Learning (DenoiseRep) to improve feature discrimination with joint feature extraction and denoising. DenoiseRep views each embedding layer in a backbone as a denoising layer, processing the cascaded embedding layers as if we are recursively denoise features step-by-step. This unifies the frameworks of feature extraction and denoising, where the former progressively embeds features from low-level to high-level, and the latter recursively denoises features step-by-step. After that, DenoiseRep fuses the parameters of feature extraction and denoising layers, and theoretically demonstrates its equivalence before and after the fusion, thus making feature denoising computation-free. DenoiseRep is a label-free algorithm that incrementally improves features but also complementary to the label if available. Experimental results on various discriminative vision tasks, including re-identification (Market-1501, DukeMTMC-reID, MSMT17, CUHK-03, vehicleID), image classification (ImageNet, UB200, Oxford-Pet, Flowers), object detection (COCO), image segmentation (ADE20K) show stability and impressive improvements. We also validate its effectiveness on the CNN (ResNet) and Transformer (ViT, Swin, Vmamda) architectures.
- Abstract(参考訳): 認知モデルは強力な生成モデルであることが証明されているが、識別的タスクの探索はほとんどない。
表現学習は「分類器やその他の予測器を構築する際に有用な情報を抽出しやすくするデータの学習表現(または特徴)」として定義される識別タスクにおいて重要である。
本稿では,特徴抽出とデノナイズによる特徴識別を改善するために,新しい表現学習モデル(Denoising Model for Representation Learning, DenoiseRep)を提案する。
DenoiseRepは、バックボーン内の各埋め込み層をデノナイズ層とみなし、カスケードされた埋め込み層を、機能を再帰的にデノナイズしているかのように処理します。
前者が下位レベルから上位レベルへ機能を段階的に埋め込み、後者が再帰的に機能を段階的に分解する。
その後、DenoiseRepは特徴抽出とデノナイジング層のパラメータを融合させ、融合前後の同値性を理論的に証明し、特徴のデノナイジング計算を不要にする。
DenoiseRepは、インクリメンタルに機能を改善するが、利用可能であればラベルを補完するラベルフリーのアルゴリズムである。
例えば、再識別(Market-1501, DukeMTMC-reID, MSMT17, CUHK-03, vehicleID)、画像分類(ImageNet, UB200, Oxford-Pet, Flowers)、オブジェクト検出(COCO)、画像分割(ADE20K)などである。
また、CNN(ResNet)およびTransformer(ViT、Swin、Vmamda)アーキテクチャ上での有効性を検証する。
関連論文リスト
- Random Sub-Samples Generation for Self-Supervised Real Image Denoising [9.459398471988724]
我々は,Smpling Different As Perturbation (SDAP) という,自己監督型実画像記述フレームワークを提案する。
トレーニング画像に適切な摂動を加えることで,BSNの性能を効果的に向上できることがわかった。
その結果、実世界のデータセット上で、最先端の自己教師型デノベーション手法を著しく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-07-31T16:39:35Z) - Knowledge Diffusion for Distillation [53.908314960324915]
知識蒸留(KD)における教師と学生の表現ギャップ
これらの手法の本質は、ノイズ情報を捨て、その特徴の貴重な情報を蒸留することである。
DiffKDと呼ばれる新しいKD手法を提案し、拡散モデルを用いて特徴を明示的に識別し一致させる。
論文 参考訳(メタデータ) (2023-05-25T04:49:34Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Enhancing convolutional neural network generalizability via low-rank weight approximation [6.763245393373041]
十分なノイズ処理は、画像処理にとって重要な第一歩であることが多い。
ディープニューラルネットワーク(DNN)は画像のノイズ化に広く利用されている。
本研究では,タッカー低ランクテンソル近似に基づく自己教師付き画像復調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:11:05Z) - Deep Semantic Statistics Matching (D2SM) Denoising Network [70.01091467628068]
本稿では,Deep Semantic Statistics Matching (D2SM) Denoising Networkを紹介する。
事前訓練された分類ネットワークの意味的特徴を利用して、意味的特徴空間における明瞭な画像の確率的分布と暗黙的に一致させる。
識別画像のセマンティックな分布を学習することで,ネットワークの認知能力を大幅に向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-19T14:35:42Z) - Embedding contrastive unsupervised features to cluster in- and
out-of-distribution noise in corrupted image datasets [18.19216557948184]
Web画像検索に検索エンジンを使用することは、イメージデータセットを作成する際の手作業によるキュレーションに代わる誘惑的な手段である。
主な欠点は、回収された間違った(ノイズの多い)サンプルの割合である。
本稿では,教師なしのコントラスト特徴学習を用いた検出ステップから始める2段階のアルゴリズムを提案する。
比較学習のアライメントと均一性原理により,OODサンプルは単位超球面上のIDサンプルから線形に分離できることがわかった。
論文 参考訳(メタデータ) (2022-07-04T16:51:56Z) - Practical Blind Image Denoising via Swin-Conv-UNet and Data Synthesis [148.16279746287452]
本研究では,残差畳み込み層の局所モデリング能力とスウィントランスブロックの非局所モデリング能力を組み込むスウィンコンブブロックを提案する。
トレーニングデータ合成のために,異なる種類のノイズを考慮した実用的なノイズ劣化モデルの設計を行う。
AGWN除去と実画像復号化の実験は、新しいネットワークアーキテクチャ設計が最先端の性能を達成することを実証している。
論文 参考訳(メタデータ) (2022-03-24T18:11:31Z) - IDR: Self-Supervised Image Denoising via Iterative Data Refinement [66.5510583957863]
本稿では,最先端のデノナイジング性能を実現するために,教師なしの実用的なデノナイジング手法を提案する。
本手法では, 1つのノイズ画像と1つのノイズモデルしか必要とせず, 実際の生画像に容易にアクセス可能である。
実世界のアプリケーションにおける生画像復調性能を評価するため,500シーンのシーンを含む高品質な生画像データセットSenseNoise-500を構築した。
論文 参考訳(メタデータ) (2021-11-29T07:22:53Z) - Diffusion-Based Representation Learning [65.55681678004038]
教師付き信号のない表現学習を実現するために,デノナイズスコアマッチングフレームワークを拡張した。
対照的に、拡散に基づく表現学習は、デノナイジングスコアマッチング目的の新しい定式化に依存している。
同じ手法を用いて,半教師付き画像分類における最先端モデルの改善を実現する無限次元潜在符号の学習を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:26:02Z) - Noise2Inverse: Self-supervised deep convolutional denoising for
tomography [0.0]
Noise2Inverseは、線形画像再構成アルゴリズムのためのディープCNNに基づくDenoising法である。
そこで我々は,そのような学習がCNNを実際に獲得することを示す理論的枠組みを構築した。
シミュレーションCTデータセットにおいて、Noss2Inverseはピーク信号対雑音比と構造類似度指数の改善を示す。
論文 参考訳(メタデータ) (2020-01-31T12:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。