論文の概要: Learning Integrodifferential Models for Image Denoising
- arxiv url: http://arxiv.org/abs/2010.10888v2
- Date: Mon, 17 May 2021 09:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:43:35.224235
- Title: Learning Integrodifferential Models for Image Denoising
- Title(参考訳): 画像デノイジングのための統合的モデル学習
- Authors: Tobias Alt, Joachim Weickert
- Abstract要約: 画像復調のためのエッジエンハンシング異方性拡散モデルの積分微分拡張を導入する。
重み付けされた構造情報を複数のスケールで蓄積することにより,マルチスケール統合による異方性の生成を初めて行う。
- 参考スコア(独自算出の注目度): 14.404339094377319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an integrodifferential extension of the edge-enhancing
anisotropic diffusion model for image denoising. By accumulating weighted
structural information on multiple scales, our model is the first to create
anisotropy through multiscale integration. It follows the philosophy of
combining the advantages of model-based and data-driven approaches within
compact, insightful, and mathematically well-founded models with improved
performance. We explore trained results of scale-adaptive weighting and
contrast parameters to obtain an explicit modelling by smooth functions. This
leads to a transparent model with only three parameters, without significantly
decreasing its denoising performance. Experiments demonstrate that it
outperforms its diffusion-based predecessors. We show that both multiscale
information and anisotropy are crucial for its success.
- Abstract(参考訳): 画像復調のためのエッジエンハンシング異方性拡散モデルの積分微分拡張を導入する。
重み付き構造情報を複数のスケールで蓄積することにより,マルチスケール統合による異方性の生成を初めて行う。
コンパクトで洞察力に富み、数学的によく確立されたモデルにモデルベースとデータ駆動アプローチの利点を結合し、パフォーマンスを向上させるという哲学に従っている。
スケール適応重み付けとコントラストパラメータのトレーニング結果を探索し,滑らかな関数による明示的なモデリングを得る。
これにより、3つのパラメータしか持たない透明なモデルが実現される。
実験により、拡散に基づく前駆体よりも優れていることが示された。
マルチスケール情報と異方性の両方がその成功に不可欠であることを示す。
関連論文リスト
- Oscillation Inversion: Understand the structure of Large Flow Model through the Lens of Inversion Method [60.88467353578118]
実世界のイメージを逆転させる固定点インスパイアされた反復的アプローチは収束を達成せず、異なるクラスタ間で振動することを示す。
本稿では,画像強調,ストロークベースのリカラー化,および視覚的プロンプト誘導画像編集を容易にする,シンプルで高速な分布転送手法を提案する。
論文 参考訳(メタデータ) (2024-11-17T17:45:37Z) - Rethinking Weight-Averaged Model-merging [15.2881959315021]
重み付きモデルマージはディープラーニングにおいて強力なアプローチとして登場し、微調整や再訓練なしにモデル性能を向上させることができる。
本稿では,この手法を3つの新しい視点から検討し,重み付きモデルマージがどのように動作するのか,なぜより深い知見を提供する。
私たちの発見は、平均的なモデルマージの"ブラックボックス"に光を当て、貴重な洞察と実践的なレコメンデーションを提供しました。
論文 参考訳(メタデータ) (2024-11-14T08:02:14Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Memory-Efficient Fine-Tuning for Quantized Diffusion Model [12.875837358532422]
本稿では,量子化拡散モデルのためのメモリ効率の良い微調整手法であるTuneQDMを紹介する。
提案手法は, 単目的/多目的の両方の世代において, ベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2024-01-09T03:42:08Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。