論文の概要: Deep Attentional Guided Image Filtering
- arxiv url: http://arxiv.org/abs/2112.06401v1
- Date: Mon, 13 Dec 2021 03:26:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 17:28:33.680575
- Title: Deep Attentional Guided Image Filtering
- Title(参考訳): 深部注意ガイド画像フィルタリング
- Authors: Zhiwei Zhong, Xianming Liu, Junjun Jiang, Debin Zhao, Xiangyang Ji
- Abstract要約: ガイドフィルターはコンピュータビジョンとコンピュータグラフィックスの基本的なツールである。
本稿では,Deep attentional guided image filtering という効果的なフレームワークを提案する。
提案手法は,多種多様な画像フィルタリングアプリケーションにおいて,最先端の手法と良好に比較できることを示す。
- 参考スコア(独自算出の注目度): 90.20699804116646
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Guided filter is a fundamental tool in computer vision and computer graphics
which aims to transfer structure information from guidance image to target
image. Most existing methods construct filter kernels from the guidance itself
without considering the mutual dependency between the guidance and the target.
However, since there typically exist significantly different edges in the two
images, simply transferring all structural information of the guidance to the
target would result in various artifacts. To cope with this problem, we propose
an effective framework named deep attentional guided image filtering, the
filtering process of which can fully integrate the complementary information
contained in both images. Specifically, we propose an attentional kernel
learning module to generate dual sets of filter kernels from the guidance and
the target, respectively, and then adaptively combine them by modeling the
pixel-wise dependency between the two images. Meanwhile, we propose a
multi-scale guided image filtering module to progressively generate the
filtering result with the constructed kernels in a coarse-to-fine manner.
Correspondingly, a multi-scale fusion strategy is introduced to reuse the
intermediate results in the coarse-to-fine process. Extensive experiments show
that the proposed framework compares favorably with the state-of-the-art
methods in a wide range of guided image filtering applications, such as guided
super-resolution, cross-modality restoration, texture removal, and semantic
segmentation.
- Abstract(参考訳): 誘導フィルタは、誘導画像から対象画像へ構造情報を転送することを目的とした、コンピュータビジョンとコンピュータグラフィックスの基本的なツールである。
既存のほとんどのメソッドは、ガイダンスとターゲット間の相互依存を考慮せずに、ガイダンス自体からフィルタカーネルを構築する。
しかし、通常、2つの画像にかなり異なるエッジが存在するため、誘導のすべての構造情報をターゲットに転送するだけで様々なアーティファクトが得られる。
そこで本研究では,両画像に含まれる補完的情報を十分に統合できる,深層注意誘導画像フィルタリングという効果的な枠組みを提案する。
具体的には,2つの画像間の画素依存性をモデル化することにより,それぞれが誘導と目標からフィルタカーネルの2つの集合を生成し,それらを適応的に組み合わせるための注目カーネル学習モジュールを提案する。
一方,提案するマルチスケールガイド画像フィルタリングモジュールは,構成されたカーネルによるフィルタリング結果を粗い方法で段階的に生成する。
次いで, 粗粒化プロセスにおける中間結果を再利用するために, マルチスケール核融合戦略を導入する。
広汎な実験により,提案手法は,ガイド付き超解像,クロスモーダル復元,テクスチャ除去,セマンティックセグメンテーションなど,幅広いガイド付き画像フィルタリングアプリケーションにおいて,最先端の手法と良好に比較できることがわかった。
関連論文リスト
- Guided Image Restoration via Simultaneous Feature and Image Guided
Fusion [67.30078778732998]
本稿では,SFIGFネットワークを提案する。
GF ( guided filter) のメカニズムに従って, 特徴量と画像レベルの誘導核融合を考察する。
特徴領域と画像領域の両方で誘導融合が実装されているため,提案したSFIGFは文脈情報とテキスト情報の両方を忠実に再構築することが期待される。
論文 参考訳(メタデータ) (2023-12-14T12:15:45Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Image Completion via Dual-path Cooperative Filtering [17.62197747945094]
入力シーンに基づいた画像復元のための予測フィルタリング手法を提案する。
欠落した情報を埋めるために、機能レベルのセマンティックフィルタリングが導入されている。
3つの挑戦的な画像補完データセットの実験により、提案したDCFは最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-30T03:54:53Z) - Semantic-aware Occlusion Filtering Neural Radiance Fields in the Wild [10.066261691282016]
本稿では,制約のない観光写真からニューラルシーン表現を再構築するための学習フレームワークを提案する。
SF-NeRFは,静的成分と過渡成分を少数の画像で切り離すことを目的としている。
フィルタモジュールの曖昧な分解とノイズを防止できる2つの手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T11:50:34Z) - Single Stage Virtual Try-on via Deformable Attention Flows [51.70606454288168]
仮想試行は、ショップ内服と基準人物画像が与えられた写真リアルなフィッティング結果を生成することを目的としている。
マルチフロー推定に変形性アテンションスキームを適用した,変形性アテンションフロー(DAFlow)を新たに開発した。
提案手法は,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-19T10:01:31Z) - Multi-scale Image Decomposition using a Local Statistical Edge Model [0.0]
サブウィンドウ分散フィルタという新しい非線形フィルタを用いたプログレッシブ画像分解手法を提案する。
本手法は,画像のディテール向上のために特別に設計されている。
論文 参考訳(メタデータ) (2021-05-05T09:38:07Z) - TSIT: A Simple and Versatile Framework for Image-to-Image Translation [103.92203013154403]
画像間翻訳のためのシンプルで多用途なフレームワークを提案する。
新たに提案した特徴変換を用いた2ストリーム生成モデルを提案する。
これにより、マルチスケールのセマンティック構造情報とスタイル表現を効果的に捕捉し、ネットワークに融合させることができる。
体系的な研究は、提案手法をいくつかの最先端タスク固有のベースラインと比較し、知覚的品質と定量的評価の両面での有効性を検証する。
論文 参考訳(メタデータ) (2020-07-23T15:34:06Z) - Multi-Channel Attention Selection GANs for Guided Image-to-Image
Translation [148.9985519929653]
本稿では,画像から画像への変換のためのマルチチャネルアテンション選択生成支援ネットワーク(SelectionGAN)を提案する。
提案するフレームワークとモジュールは統合されたソリューションであり、セマンティック画像合成などの他の生成タスクに応用できる。
論文 参考訳(メタデータ) (2020-02-03T23:17:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。