論文の概要: Improving Generative Pre-Training: An In-depth Study of Masked Image Modeling and Denoising Models
- arxiv url: http://arxiv.org/abs/2412.19104v1
- Date: Thu, 26 Dec 2024 07:47:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:28:19.729576
- Title: Improving Generative Pre-Training: An In-depth Study of Masked Image Modeling and Denoising Models
- Title(参考訳): 生成前訓練の改善:マスク画像モデリングとデノイングモデルの詳細研究
- Authors: Hyesong Choi, Daeun Kim, Sungmin Cha, Kwang Moo Yi, Dongbo Min,
- Abstract要約: 本研究では,付加音が事前学習深層ネットワークに与える影響について検討する。
エンコーダ内での破損と復元,特徴空間におけるノイズの導入,ノイズとマスクによるトークンの明示的な乱れ,の3つの重要な条件が明らかになった。
- 参考スコア(独自算出の注目度): 34.02500148392666
- License:
- Abstract: In this work, we dive deep into the impact of additive noise in pre-training deep networks. While various methods have attempted to use additive noise inspired by the success of latent denoising diffusion models, when used in combination with masked image modeling, their gains have been marginal when it comes to recognition tasks. We thus investigate why this would be the case, in an attempt to find effective ways to combine the two ideas. Specifically, we find three critical conditions: corruption and restoration must be applied within the encoder, noise must be introduced in the feature space, and an explicit disentanglement between noised and masked tokens is necessary. By implementing these findings, we demonstrate improved pre-training performance for a wide range of recognition tasks, including those that require fine-grained, high-frequency information to solve.
- Abstract(参考訳): 本研究では,事前学習したディープネットワークにおける付加雑音の影響を深く掘り下げる。
様々な手法が遅延雑音拡散モデルの成功にインスパイアされた付加雑音の利用を試みてきたが、マスク画像モデリングと組み合わせて使う場合、認識タスクでは利得が限界であった。
したがって、この2つのアイデアを組み合わせる効果的な方法を見つけるために、なぜそうなるのかを考察する。
具体的には, エンコーダ内での破損と復元, 特徴空間におけるノイズの導入, ノイズとマスクによるトークンの明示的な絡み合い, の3つの重要な条件を見出す。
これらの結果により,より微細で高周波な情報を必要とするタスクを含む,幅広い認識タスクに対する事前学習性能の向上が示された。
関連論文リスト
- Noise-BERT: A Unified Perturbation-Robust Framework with Noise Alignment
Pre-training for Noisy Slot Filling Task [14.707646721729228]
現実的な対話システムでは、ユーザからの入力情報は様々な種類の入力摂動の対象となることが多い。
本研究では,ノイズアライメント事前学習による摂動ロバスト統合フレームワークであるNoss-BERTを提案する。
本フレームワークは,2つのノイズアライメント事前学習タスクを組み込んでいる。
論文 参考訳(メタデータ) (2024-02-22T12:39:50Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Reconstruct-and-Generate Diffusion Model for Detail-Preserving Image
Denoising [16.43285056788183]
再構成・生成拡散モデル(Reconstruct-and-Generate Diffusion Model, RnG)と呼ばれる新しい手法を提案する。
提案手法は, 再構成型復調ネットワークを利用して, 基礎となるクリーン信号の大半を復元する。
拡散アルゴリズムを用いて残留する高周波の詳細を生成し、視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-09-19T16:01:20Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - Unpaired Learning of Deep Image Denoising [80.34135728841382]
本稿では,自己指導型学習と知識蒸留を取り入れた2段階の手法を提案する。
自己教師型学習では,実雑音の画像のみから視覚を学習するための拡張型盲点ネットワーク(D-BSN)を提案する。
実験の結果,本手法は合成ノイズ画像と実世界のノイズ画像の両方で良好に機能することがわかった。
論文 参考訳(メタデータ) (2020-08-31T16:22:40Z) - Dual Adversarial Network: Toward Real-world Noise Removal and Noise
Generation [52.75909685172843]
実世界の画像ノイズ除去は、コンピュータビジョンにおける長年の課題である。
本稿では,ノイズ除去およびノイズ発生タスクに対処する新しい統合フレームワークを提案する。
本手法はクリーンノイズ画像対の連成分布を学習する。
論文 参考訳(メタデータ) (2020-07-12T09:16:06Z) - Variational Denoising Network: Toward Blind Noise Modeling and Removal [59.36166491196973]
ブラインド画像のデノイングはコンピュータビジョンにおいて重要な問題であるが、非常に難しい問題である。
本稿では,ノイズ推定と画像デノーミングを併用した新しい変分推論手法を提案する。
論文 参考訳(メタデータ) (2019-08-29T15:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。