論文の概要: A Survey on All-in-One Image Restoration: Taxonomy, Evaluation and Future Trends
- arxiv url: http://arxiv.org/abs/2410.15067v3
- Date: Tue, 12 Aug 2025 02:37:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 14:32:15.868531
- Title: A Survey on All-in-One Image Restoration: Taxonomy, Evaluation and Future Trends
- Title(参考訳): オールインワン画像復元に関する調査研究 : 分類学,評価,今後の展望
- Authors: Junjun Jiang, Zengyuan Zuo, Gang Wu, Kui Jiang, Xianming Liu,
- Abstract要約: 画像復元(IR)は、ノイズ、ぼかし、圧縮、悪天候など幅広い要因によって生じる劣化した観察から高品質な画像の復元を目指している。
従来のIR法は、個々の劣化タイプを対象とすることで顕著な進歩を遂げてきたが、それらの特殊化は、しばしば一般化のコストがかかる。
オールインワンのイメージ復元パラダイムが最近登場し、複数の劣化タイプに順応的に対処する統一されたフレームワークを提供している。
- 参考スコア(独自算出の注目度): 67.43992456058541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image restoration (IR) seeks to recover high-quality images from degraded observations caused by a wide range of factors, including noise, blur, compression, and adverse weather. While traditional IR methods have made notable progress by targeting individual degradation types, their specialization often comes at the cost of generalization, leaving them ill-equipped to handle the multifaceted distortions encountered in real-world applications. In response to this challenge, the all-in-one image restoration (AiOIR) paradigm has recently emerged, offering a unified framework that adeptly addresses multiple degradation types. These innovative models enhance the convenience and versatility by adaptively learning degradation-specific features while simultaneously leveraging shared knowledge across diverse corruptions. In this survey, we provide the first in-depth and systematic overview of AiOIR, delivering a structured taxonomy that categorizes existing methods by architectural designs, learning paradigms, and their core innovations. We systematically categorize current approaches and assess the challenges these models encounter, outlining research directions to propel this rapidly evolving field. To facilitate the evaluation of existing methods, we also consolidate widely-used datasets, evaluation protocols, and implementation practices, and compare and summarize the most advanced open-source models. As the first comprehensive review dedicated to AiOIR, this paper aims to map the conceptual landscape, synthesize prevailing techniques, and ignite further exploration toward more intelligent, unified, and adaptable visual restoration systems. A curated code repository is available at https://github.com/Harbinzzy/All-in-One-Image-Restoration-Survey.
- Abstract(参考訳): 画像復元(IR)は、ノイズ、ぼかし、圧縮、悪天候など幅広い要因によって生じる劣化した観察から高品質な画像の復元を目指している。
従来のIR法は個々の劣化型を対象とすることで顕著な進歩を遂げてきたが、それらの特殊化はしばしば一般化のコストがかかる。
この課題に応えて、オールインワンイメージ復元(AiOIR)パラダイムが最近登場し、複数の分解タイプに順応的に対処する統一されたフレームワークを提供する。
これらの革新的なモデルは、様々な汚職にまたがる共有知識を同時に活用しながら、劣化特有の特徴を適応的に学習することで、利便性と汎用性を高める。
本調査では,AiOIRのアーキテクチャ設計,学習パラダイム,そしてそのコアイノベーションによって,既存の手法を分類する構造的分類法を提供する。
我々は、現在のアプローチを体系的に分類し、これらのモデルが直面する課題を評価し、この急速に発展する分野を広めるために研究の方向性を概説する。
また,既存の手法の評価を容易にするために,広く利用されているデータセット,評価プロトコル,実装プラクティスを統合し,最も先進的なオープンソースモデルを比較し,要約する。
AiOIRに関する最初の総合的なレビューとして,本論文は,概念的景観をマッピングし,普及した技術を合成し,よりインテリジェントで統一された,適応可能な視覚修復システムへのさらなる探求を促進することを目的としている。
キュレートされたコードリポジトリはhttps://github.com/Harbinzzy/All-in-One-Image-Restoration-Surveyで公開されている。
関連論文リスト
- A Systematic Investigation on Deep Learning-Based Omnidirectional Image and Video Super-Resolution [30.62413133817583]
本稿では,全方位画像とビデオ超解像の最近の進歩を体系的に概観する。
新しいデータセットである360Instaを導入し、全方位画像とビデオをオーステンシャルに劣化させた。
提案したデータセットと公開データセットの両方において,既存手法の総合的質的,定量的評価を行う。
論文 参考訳(メタデータ) (2025-06-07T08:24:44Z) - Manifold-aware Representation Learning for Degradation-agnostic Image Restoration [135.90908995927194]
画像復元(IR)は、ノイズ、ぼかし、迷路、雨、低照度といった様々な汚職に影響を受ける劣化した入力から高品質な画像を復元することを目的としている。
我々は、入力特徴空間を3つのセマンティックに整列した並列分岐に明示的に分解する1つのIRにおいて、すべてに統一されたフレームワークであるMIRAGEを提案する。
このモジュラ分解は、多種多様な分解の一般化と効率を大幅に改善する。
論文 参考訳(メタデータ) (2025-05-24T12:52:10Z) - Deep Learning-Driven Ultra-High-Definition Image Restoration: A Survey [40.76611383104126]
超高精細画像(UHD)画像復元は、超高精細画像の品質劣化の問題を特に解決することを目的としている。
この分野での最近の進歩は、主にディープラーニングベースのイノベーションによって引き起こされている。
我々は,UHD画像復元の最近の進歩を体系的にレビューし,データセット構築からアルゴリズム設計まで,様々な側面を網羅した。
論文 参考訳(メタデータ) (2025-05-22T03:03:53Z) - Envisioning Beyond the Pixels: Benchmarking Reasoning-Informed Visual Editing [90.65399476233495]
RISEBenchはReasoning-Informed ViSual Editing (RISE)の最初のベンチマークである。
RISEBenchは、時間、因果、空間、論理的推論の4つの主要な推論タイプに焦点を当てている。
本稿では,人間の判断とLMM-as-a-judgeアプローチの両方を用いて,指示推論,外観整合性,視覚的可視性を評価する評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T17:59:56Z) - FoundIR: Unleashing Million-scale Training Data to Advance Foundation Models for Image Restoration [66.61201445650323]
既存の手法は現実のシナリオにおける一般化ボトルネックに悩まされる。
既存のトレーニングデータに対して,2つの大きなメリットがある,100万規模のデータセットをコントリビュートしています。
実世界のシナリオにおいて,より広範囲の復元作業に対処するために,ロバストなモデルFoundIRを提案する。
論文 参考訳(メタデータ) (2024-12-02T12:08:40Z) - Hierarchical Information Flow for Generalized Efficient Image Restoration [108.83750852785582]
画像復元のための階層型情報フロー機構であるHi-IRを提案する。
Hi-IRは、劣化した画像を表す階層的な情報ツリーを3段階にわたって構築する。
7つの共通画像復元タスクにおいて、Hi-IRはその有効性と一般化性を達成する。
論文 参考訳(メタデータ) (2024-11-27T18:30:08Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - PSCR: Patches Sampling-based Contrastive Regression for AIGC Image
Quality Assessment [1.1744028458220428]
本稿では,様々な画像の差を利用した表現空間の学習のためのコントラスト回帰フレームワークを提案する。
我々は、AGIQA-1K、AGIQA-3K、AIGCIQA2023を含む3つの主要なAIGCIQAデータベースについて広範な実験を行った。
その結果,提案したPSCRフレームワークの導入により,モデル性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-12-10T14:18:53Z) - Recursive Counterfactual Deconfounding for Object Recognition [20.128093193861165]
本稿では,クローズドセットとオープンセットの両方のシナリオにおいて,オブジェクト認識のための再帰的因果分解モデルを提案する。
提案したRCDモデルは,ほとんどの場合において,11の最先端ベースラインよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2023-09-25T07:46:41Z) - Diffusion Models for Image Restoration and Enhancement -- A
Comprehensive Survey [96.99328714941657]
本稿では,近年の拡散モデルに基づく画像復元手法について概観する。
我々は、赤外線とブラインド/現実世界の両方で拡散モデルを用いて、革新的なデザインを分類し、強調する。
本稿では,拡散モデルに基づくIRの今後の研究に向けた5つの可能性と課題を提案する。
論文 参考訳(メタデータ) (2023-08-18T08:40:38Z) - Diffusion-based Visual Counterfactual Explanations -- Towards Systematic
Quantitative Evaluation [64.0476282000118]
視覚的対物的説明法(VCE)の最新手法は、深い生成モデルの力を利用して、印象的な画質の高次元画像の新しい例を合成する。
評価手順が大きく異なり,個々の実例の視覚検査や小規模なユーザスタディなど,これらのVCE手法の性能を比較することは,現時点では困難である。
本稿では,VCE手法の体系的,定量的評価のためのフレームワークと,使用する指標の最小セットを提案する。
論文 参考訳(メタデータ) (2023-08-11T12:22:37Z) - Rethinking Generative Methods for Image Restoration in Physics-based
Vision: A Theoretical Analysis from the Perspective of Information [19.530052941884996]
エンド・ツー・エンドの生成法は、物理に基づく視覚における画像復元のためのより有望な解であると考えられている。
しかし、既存の生成手法には量的性能を改善する余地がまだたくさんある。
本研究では,情報理論を用いた画像復元作業における生成手法の再解釈を試みる。
論文 参考訳(メタデータ) (2022-12-05T12:16:27Z) - A Survey of Deep Face Restoration: Denoise, Super-Resolution, Deblur,
Artifact Removal [177.21001709272144]
顔復元(FR)は、低品質(LQ)入力画像から高品質(HQ)顔を復元することを目的としている。
本稿では,顔修復のための深層学習技術の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2022-11-05T07:08:15Z) - Image Quality Assessment in the Modern Age [53.19271326110551]
本チュートリアルは、画像品質評価(IQA)の基礎的理論、方法論、現状の進歩を聴衆に提供する。
まず,視覚刺激を適切に選択する方法に着目し,主観的品質評価手法を再考する。
手書きのエンジニアリングと(深い)学習ベースの手法の両方をカバーします。
論文 参考訳(メタデータ) (2021-10-19T02:38:46Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z) - Blind Image Super-Resolution: A Survey and Beyond [43.316988709621604]
ブラインド画像超解像(SR)は、未知の劣化を伴う低解像度画像の超解像を目指している。
長年の努力にもかかわらず、依然として挑戦的な研究課題として残っている。
本稿では,近年のブラインド画像SRの進歩を体系的に検討する。
論文 参考訳(メタデータ) (2021-07-07T07:38:14Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。