論文の概要: Similarity Matters: A Novel Depth-guided Network for Image Restoration and A New Dataset
- arxiv url: http://arxiv.org/abs/2508.07211v1
- Date: Sun, 10 Aug 2025 07:17:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.757524
- Title: Similarity Matters: A Novel Depth-guided Network for Image Restoration and A New Dataset
- Title(参考訳): 類似性:画像復元のための深度誘導ネットワークと新しいデータセット
- Authors: Junyi He, Liuling Chen, Hongyang Zhou, Zhang xiaoxing, Xiaobin Zhu, Shengxiang Yu, Jingyan Qin, Xu-Cheng Yin,
- Abstract要約: 画像復元のためのDGN(Depth-Guided Network)を提案する。
ネットワークは、構造ガイダンスを提供する深さ推定ブランチと、コア復元タスクを実行する画像復元ブランチの2つの対話的ブランチで構成されている。
また,403種の高分解能画像9,205枚からなる新しい訓練・評価データセットも導入した。
- 参考スコア(独自算出の注目度): 15.805182219388442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image restoration has seen substantial progress in recent years. However, existing methods often neglect depth information, which hurts similarity matching, results in attention distractions in shallow depth-of-field (DoF) scenarios, and excessive enhancement of background content in deep DoF settings. To overcome these limitations, we propose a novel Depth-Guided Network (DGN) for image restoration, together with a novel large-scale high-resolution dataset. Specifically, the network consists of two interactive branches: a depth estimation branch that provides structural guidance, and an image restoration branch that performs the core restoration task. In addition, the image restoration branch exploits intra-object similarity through progressive window-based self-attention and captures inter-object similarity via sparse non-local attention. Through joint training, depth features contribute to improved restoration quality, while the enhanced visual features from the restoration branch in turn help refine depth estimation. Notably, we also introduce a new dataset for training and evaluation, consisting of 9,205 high-resolution images from 403 plant species, with diverse depth and texture variations. Extensive experiments show that our method achieves state-of-the-art performance on several standard benchmarks and generalizes well to unseen plant images, demonstrating its effectiveness and robustness.
- Abstract(参考訳): 画像復元は近年大きく進歩している。
しかし、既存の手法では、類似性マッチングを損なう深度情報を無視し、深度深度(DoF)シナリオにおける注意の注意散らし、深度DoF設定における背景コンテンツの過剰な向上をもたらすことが多い。
これらの制約を克服するため、画像復元のための新しいDGN(Depth-Guided Network)と、新しい大規模高解像度データセットを提案する。
具体的には、構造的ガイダンスを提供する深さ推定枝と、コア復元タスクを実行する画像復元枝の2つの対話的分岐からなる。
さらに、画像復元部はプログレッシブウィンドウベースの自己注意を通じてオブジェクト内類似性を活用し、スパース非局所的注意によりオブジェクト間類似性をキャプチャする。
関節トレーニングにより、深度特性は修復品質の向上に寄与し、修復枝からの視覚的特徴の強化は深度推定を洗練させる。
特に,403種の高解像度画像9,205枚からなり,深度やテクスチャの多様性が多様である。
大規模実験により,本手法はいくつかの標準ベンチマークで最先端性能を達成し,プラント画像によく適応し,その有効性と堅牢性を示す。
関連論文リスト
- AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - RigNet++: Semantic Assisted Repetitive Image Guided Network for Depth
Completion [31.70022495622075]
画像案内ネットワークにおける繰り返し設計を探索し、徐々に十分に深度を復元する。
前者では,複雑な環境の識別画像の特徴を抽出するために,高密度繰り返し時間ガラスネットワーク(DRHN)を設計する。
後者では,動的畳み込みに基づく反復誘導(RG)モジュールを提案する。
さらに,領域認識型空間伝搬ネットワーク(RASPN)を提案する。
論文 参考訳(メタデータ) (2023-09-01T09:11:20Z) - Adversarial Domain Feature Adaptation for Bronchoscopic Depth Estimation [111.89519571205778]
そこで本研究では,深度推定のためのドメイン適応手法を提案する。
提案する2段階構造は,まず,ラベル付き合成画像を用いた深度推定ネットワークを教師付きで訓練する。
実験の結果,提案手法は実画像上でのネットワーク性能をかなりの差で向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-24T08:11:34Z) - RigNet: Repetitive Image Guided Network for Depth Completion [20.66405067066299]
近年のアプローチは、高密度な結果を予測するためのイメージガイド学習に重点を置いている。
ぼやけたイメージガイダンスとオブジェクト構造は、まだイメージガイドされたフレームワークのパフォーマンスを妨げている。
画像案内ネットワークにおける反復的な設計を探索し,徐々に深度値の回復を図る。
提案手法は,NYUv2データセットの最先端化を実現し,提出時のKITTIベンチマークで1位にランクインする。
論文 参考訳(メタデータ) (2021-07-29T08:00:33Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。