論文の概要: BaryIR: Learning Multi-Source Unified Representation in Continuous Barycenter Space for Generalizable All-in-One Image Restoration
- arxiv url: http://arxiv.org/abs/2505.21637v1
- Date: Tue, 27 May 2025 18:10:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.219895
- Title: BaryIR: Learning Multi-Source Unified Representation in Continuous Barycenter Space for Generalizable All-in-One Image Restoration
- Title(参考訳): BaryIR: 一般化可能なオールインワン画像復元のための連続バリーセンター空間におけるマルチソース統一表現学習
- Authors: Xiaole Tang, Xiaoyi He, Xiang Gu, Jian Sun,
- Abstract要約: BaryIRはオールインワン画像復元のためのマルチソース表現学習フレームワークである。
バリセンタ空間から縮退非依存情報を統一したコンパクト表現を学習する。
実世界のデータに対する優れた一般化能力と、目に見えない劣化を示す。
- 参考スコア(独自算出の注目度): 41.100710108919415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite remarkable advances made in all-in-one image restoration (AIR) for handling different types of degradations simultaneously, existing methods remain vulnerable to out-of-distribution degradations and images, limiting their real-world applicability. In this paper, we propose a multi-source representation learning framework BaryIR, which decomposes the latent space of multi-source degraded images into a continuous barycenter space for unified feature encoding and source-specific subspaces for specific semantic encoding. Specifically, we seek the multi-source unified representation by introducing a multi-source latent optimal transport barycenter problem, in which a continuous barycenter map is learned to transport the latent representations to the barycenter space. The transport cost is designed such that the representations from source-specific subspaces are contrasted with each other while maintaining orthogonality to those from the barycenter space. This enables BaryIR to learn compact representations with unified degradation-agnostic information from the barycenter space, as well as degradation-specific semantics from source-specific subspaces, capturing the inherent geometry of multi-source data manifold for generalizable AIR. Extensive experiments demonstrate that BaryIR achieves competitive performance compared to state-of-the-art all-in-one methods. Particularly, BaryIR exhibits superior generalization ability to real-world data and unseen degradations. The code will be publicly available at https://github.com/xl-tang3/BaryIR.
- Abstract(参考訳): 異なる種類の劣化を同時に処理するためのオールインワン画像復元(AIR)において顕著な進歩があったが、既存の手法は相変わらず分布外の劣化や画像に弱いままであり、実際の適用範囲を制限している。
本稿では,マルチソースデグレード画像の潜時空間を連続したバリセンタ空間に分解し,特徴符号化と特定のセマンティックエンコーディングのためのソース固有部分空間を統一する多ソース表現学習フレームワークであるBaryIRを提案する。
具体的には、連続したバリセンターマップを学習して、潜伏表現をバリセンター空間へ輸送するマルチソース最適輸送バリセンター問題を導入することで、マルチソース統一表現を求める。
輸送コストは、ソース固有の部分空間からの表現が、バリセンター空間からの表現と直交を維持しながら互いに対比するように設計されている。
これにより、BaryIRは、バリセンタ空間から統一的な分解非依存情報を持つコンパクトな表現を学習し、ソース固有の部分空間から分解特異的な意味論を学習し、一般化可能なAIRのためのマルチソースデータ多様体の本質的な幾何学を捉えることができる。
大規模な実験により、BaryIRは最先端のオールインワン手法と比較して競争力を発揮することが示された。
特に、BaryIRは現実世界のデータと目に見えない劣化に対する優れた一般化能力を示している。
コードはhttps://github.com/xl-tang3/BaryIRで公開される。
関連論文リスト
- Manifold-aware Representation Learning for Degradation-agnostic Image Restoration [135.90908995927194]
画像復元(IR)は、ノイズ、ぼかし、迷路、雨、低照度といった様々な汚職に影響を受ける劣化した入力から高品質な画像を復元することを目的としている。
我々は、入力特徴空間を3つのセマンティックに整列した並列分岐に明示的に分解する1つのIRにおいて、すべてに統一されたフレームワークであるMIRAGEを提案する。
このモジュラ分解は、多種多様な分解の一般化と効率を大幅に改善する。
論文 参考訳(メタデータ) (2025-05-24T12:52:10Z) - UniUIR: Considering Underwater Image Restoration as An All-in-One Learner [49.35128836844725]
我々はUniUIRと呼ばれるユニバーサル水中画像復元手法を提案する。
劣化固有の問題を分離し、UIRタスクにおける様々な劣化の相関関係を探るため、我々はMamba Mixture-of-Expertsモジュールを設計した。
このモジュールは、空間領域と周波数領域の両方において劣化前の情報を抽出し、最適なタスク固有のプロンプトを適応的に選択する。
論文 参考訳(メタデータ) (2025-01-22T16:10:42Z) - Spatial Semantic Recurrent Mining for Referring Image Segmentation [63.34997546393106]
高品質なクロスモーダリティ融合を実現するために,Stextsuperscript2RMを提案する。
これは、言語特徴の分散、空間的意味的再帰的分離、パーセマンティック・セマンティック・バランシングという三部作の作業戦略に従う。
提案手法は他の最先端アルゴリズムに対して好適に機能する。
論文 参考訳(メタデータ) (2024-05-15T00:17:48Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。