論文の概要: Perception-Distortion Balanced Super-Resolution: A Multi-Objective
Optimization Perspective
- arxiv url: http://arxiv.org/abs/2312.15408v1
- Date: Sun, 24 Dec 2023 04:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 18:00:58.127789
- Title: Perception-Distortion Balanced Super-Resolution: A Multi-Objective
Optimization Perspective
- Title(参考訳): 知覚歪バランス型超解法:多目的最適化の展望
- Authors: Lingchen Sun, Jie Liang, Shuaizheng Liu, Hongwei Yong, Lei Zhang
- Abstract要約: 我々は、多目的最適化問題として、SRにおける知覚歪トレードオフを定式化する。
我々は、勾配のない進化アルゴリズム(EA)と勾配に基づくAdamを統合することにより、新しいアルゴリズムを開発する。
その結果,知覚・歪曲傾向の異なる最適モデルの個体群が得られた。
実験により,同じバックボーンネットワークを用いて,本手法で訓練した知覚歪みSRモデルにより,競合他社よりも知覚品質が向上することを示した。
- 参考スコア(独自算出の注目度): 17.98348424312597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High perceptual quality and low distortion degree are two important goals in
image restoration tasks such as super-resolution (SR). Most of the existing SR
methods aim to achieve these goals by minimizing the corresponding yet
conflicting losses, such as the $\ell_1$ loss and the adversarial loss.
Unfortunately, the commonly used gradient-based optimizers, such as Adam, are
hard to balance these objectives due to the opposite gradient decent directions
of the contradictory losses. In this paper, we formulate the
perception-distortion trade-off in SR as a multi-objective optimization problem
and develop a new optimizer by integrating the gradient-free evolutionary
algorithm (EA) with gradient-based Adam, where EA and Adam focus on the
divergence and convergence of the optimization directions respectively. As a
result, a population of optimal models with different perception-distortion
preferences is obtained. We then design a fusion network to merge these models
into a single stronger one for an effective perception-distortion trade-off.
Experiments demonstrate that with the same backbone network, the
perception-distortion balanced SR model trained by our method can achieve
better perceptual quality than its competitors while attaining better
reconstruction fidelity. Codes and models can be found at
https://github.com/csslc/EA-Adam.
- Abstract(参考訳): 高知覚品質と低歪み度は、超解像(SR)のような画像復元タスクにおいて2つの重要な目標である。
既存のsr手法のほとんどは、$\ell_1$の損失や敵対的損失といった相反する損失を最小化することで、これらの目標を達成することを目指している。
残念なことに、アダムのような一般的な勾配に基づく最適化器は、矛盾する損失の正反対の勾配方向のためにこれらの目的のバランスをとるのが難しい。
本稿では,多目的最適化問題としてsrの知覚-ゆがみトレードオフを定式化し,勾配自由進化アルゴリズム(ea)と勾配に基づくadamを統合し,ea と adam がそれぞれ最適化方向の発散と収束に焦点を当てた新しい最適化器を開発した。
その結果,知覚・歪曲傾向の異なる最適モデルの個体群が得られた。
次に,これらのモデルを単一のより強力なモデルにマージして,効果的な知覚・ゆがみトレードオフを実現するための融合ネットワークを設計する。
実験により, 同じバックボーンネットワークを用いて, 本手法で訓練した知覚歪みバランスSRモデルにより, コンペティタよりも知覚品質が向上し, 再現精度が向上することを示した。
コードとモデルはhttps://github.com/csslc/EA-Adam.comにある。
関連論文リスト
- Self-supervised Preference Optimization: Enhance Your Language Model with Preference Degree Awareness [27.43137305486112]
本稿では,自己監督的選好度損失とアライメント損失を組み合わせた自己監督的選好度損失を構成する,新しい自己監督的選好最適化(SPO)フレームワークを提案する。
その結果,SPOを既存の好み最適化手法とシームレスに統合し,最先端性能を実現することができた。
論文 参考訳(メタデータ) (2024-09-26T12:37:26Z) - Perceptual-Distortion Balanced Image Super-Resolution is a Multi-Objective Optimization Problem [23.833099288826045]
画素ベースの回帰損失を用いた単一画像超解法(SISR)モデルのトレーニングは、高い歪みメトリクススコアを得ることができる。
しかし、高周波の詳細の回復が不十分なため、しばしばぼやけた画像が生じる。
本稿では,Multi-Objective Optimization(MOO)をSISRモデルのトレーニングプロセスに組み込んで,知覚品質と歪みのバランスをとる手法を提案する。
論文 参考訳(メタデータ) (2024-09-05T02:14:04Z) - A Simple and Generalist Approach for Panoptic Segmentation [57.94892855772925]
汎用的なビジョンモデルは、様々なビジョンタスクのための1つの同じアーキテクチャを目指している。
このような共有アーキテクチャは魅力的に思えるかもしれないが、ジェネラリストモデルは、その好奇心に満ちたモデルよりも優れている傾向にある。
一般モデルの望ましい性質を損なうことなく、2つの重要なコントリビューションを導入することでこの問題に対処する。
論文 参考訳(メタデータ) (2024-08-29T13:02:12Z) - Gradient constrained sharpness-aware prompt learning for vision-language
models [99.74832984957025]
本稿では,視覚言語モデル(VLM)の一般化可能な即時学習における新たなトレードオフ問題を提案する。
最先端手法のロスランドスケープとSAMに基づくバニラシャープネス認識最小化法を解析することにより、トレードオフ性能は損失値と損失シャープネスの両方に相関していると結論付けた。
本稿では,GCSCoOp (Gradient Constrained Sharpness-Aware Context Optimization) と表記される,素早い学習のためのSAMベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-09-14T17:13:54Z) - Perception-Oriented Single Image Super-Resolution using Optimal
Objective Estimation [11.830754741007029]
本稿では,高分解能出力の全体領域において,各領域に最適な目標を適用したSISRフレームワークを提案する。
このフレームワークは、与えられた低解像度(LR)入力に対して最適な客観的マップを推定する予測モデルと、対応するSR出力を生成するために対象対象マップを適用する生成モデルと、の2つのモデルから構成される。
論文 参考訳(メタデータ) (2022-11-24T15:45:03Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - RL-PGO: Reinforcement Learning-based Planar Pose-Graph Optimization [1.4884785898657995]
本稿では,最新のDeep Reinforcement Learning (DRL) ベースの環境と2次元ポーズグラフ最適化のためのエージェントを提案する。
本研究では、ポーズグラフ最適化問題を部分的に観測可能な決定プロセスとしてモデル化し、実世界および合成データセットの性能を評価することを実証する。
論文 参考訳(メタデータ) (2022-02-26T20:10:14Z) - Gradient Variance Loss for Structure-Enhanced Image Super-Resolution [16.971608518924597]
構造強調損失関数(Gradient Variance(GV)損失)を導入し,知覚特性の詳細でテクスチャを生成する。
実験の結果,GV損失は,既存の画像超解像(SR)深層学習モデルにおいて,構造類似度(SSIM)とピーク信号-雑音比(PSNR)の両方を著しく改善できることがわかった。
論文 参考訳(メタデータ) (2022-02-02T12:31:05Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Normalizing Flow as a Flexible Fidelity Objective for Photo-Realistic
Super-resolution [161.39504409401354]
超解像は不適切な問題であり、高分解能画像は可算解空間の1つの可能性を表す。
しかし、支配的なパラダイムは、L_のようなピクセル単位の損失を採用することで、ぼやけた平均に向かって予測を駆動する。
本稿では,L_損失を再考することによりこの問題に対処し,一層条件流に対応することを示す。
この関係に触発されて、L_目的に対する忠実度に基づくオルタナティブとして一般流れを探索する。
より深いフローの柔軟性は、対向的な損失と組み合わせることで、より良い視覚的品質と一貫性をもたらすことを実証する。
論文 参考訳(メタデータ) (2021-11-05T17:56:51Z) - Understanding the Generalization of Adam in Learning Neural Networks
with Proper Regularization [118.50301177912381]
我々は,重力減衰グローバリゼーションにおいても,目的の異なる解に確実に異なる誤差で収束できることを示す。
凸と重み減衰正則化を用いると、Adamを含む任意の最適化アルゴリズムは同じ解に収束することを示す。
論文 参考訳(メタデータ) (2021-08-25T17:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。