論文の概要: Recurrent Feature Reasoning for Image Inpainting
- arxiv url: http://arxiv.org/abs/2008.03737v1
- Date: Sun, 9 Aug 2020 14:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 04:25:53.506317
- Title: Recurrent Feature Reasoning for Image Inpainting
- Title(参考訳): イメージインペインティングのための繰り返し特徴推論
- Authors: Jingyuan Li, Ning Wang, Lefei Zhang, Bo Du, Dacheng Tao
- Abstract要約: Recurrent Feature Reasoning (RFR) は主にプラグアンドプレイの Recurrent Feature Reasoning モジュールと Knowledge Consistent Attention (KCA) モジュールで構築されている。
RFRモジュールは、畳み込み特徴写像の穴の境界を反復的に推論し、さらに推論の手がかりとして利用する。
RFRの特徴マップ内の離れた場所からの情報を取得するため、我々はさらにKCAを開発し、RFRに組み込む。
- 参考スコア(独自算出の注目度): 110.24760191732905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing inpainting methods have achieved promising performance for
recovering regular or small image defects. However, filling in large continuous
holes remains difficult due to the lack of constraints for the hole center. In
this paper, we devise a Recurrent Feature Reasoning (RFR) network which is
mainly constructed by a plug-and-play Recurrent Feature Reasoning module and a
Knowledge Consistent Attention (KCA) module. Analogous to how humans solve
puzzles (i.e., first solve the easier parts and then use the results as
additional information to solve difficult parts), the RFR module recurrently
infers the hole boundaries of the convolutional feature maps and then uses them
as clues for further inference. The module progressively strengthens the
constraints for the hole center and the results become explicit. To capture
information from distant places in the feature map for RFR, we further develop
KCA and incorporate it in RFR. Empirically, we first compare the proposed
RFR-Net with existing backbones, demonstrating that RFR-Net is more efficient
(e.g., a 4\% SSIM improvement for the same model size). We then place the
network in the context of the current state-of-the-art, where it exhibits
improved performance. The corresponding source code is available at:
https://github.com/jingyuanli001/RFR-Inpainting
- Abstract(参考訳): 既存の塗装法は, 画像欠陥の回復に有望な性能を達成している。
しかし,穴中心の制約の欠如により,大きな連続孔への充填は困難である。
本稿では、主にプラグ・アンド・プレイのリカレント特徴推論モジュールと知識一貫性注意(kca)モジュールによって構築されるリカレント特徴推論(rfr)ネットワークを考案する。
RFRモジュールは、人間がパズルを解く方法(つまり、より簡単な部分を解き、難解な部分を解くための追加情報として結果を使用する)に似て、畳み込み特徴写像の穴の境界を反復的に推論し、さらに推論するための手がかりとして使用する。
モジュールは徐々にホールセンターの制約を強化し、その結果は明確になる。
RFRの特徴マップ内の離れた場所からの情報を取得するため、我々はさらにKCAを開発し、RFRに組み込む。
経験的に、提案したRFR-Netと既存のバックボーンを比較して、RFR-Netがより効率的であることを示す(例えば、同じモデルサイズで4\%のSSIMの改善)。
次に、ネットワークを現在の最先端のコンテキストに配置し、パフォーマンスを向上させます。
対応するソースコードは、https://github.com/jingyuanli001/RFR-Inpaintingで入手できる。
関連論文リスト
- Look-Around Before You Leap: High-Frequency Injected Transformer for Image Restoration [46.96362010335177]
本稿では,画像復元のための簡易かつ効果的な高周波インジェクト変換器HITを提案する。
具体的には,機能マップに高頻度の詳細を組み込んだウィンドウワイドインジェクションモジュール(WIM)を設計し,高品質な画像の復元のための信頼性の高い参照を提供する。
さらに,BIMにおけるチャネル次元の計算によって失われる可能性のある空間的関係を維持するために,空間拡張ユニット(SEU)を導入する。
論文 参考訳(メタデータ) (2024-03-30T08:05:00Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Reconstruction-driven Dynamic Refinement based Unsupervised Domain
Adaptation for Joint Optic Disc and Cup Segmentation [25.750583118977833]
緑内障は可逆性失明の主要な原因の1つである。
OD/OCセグメンテーションモデルをトレーニングすることは依然として難しい。
本稿ではリコンストラクション駆動動的リファインメントネットワーク(RDR-Net)と呼ばれる新しい非教師なし領域適応(UDA)手法を提案する。
論文 参考訳(メタデータ) (2023-04-10T13:33:13Z) - RecRecNet: Rectangling Rectified Wide-Angle Images by Thin-Plate Spline
Model and DoF-based Curriculum Learning [62.86400614141706]
我々はRecRecNet(Rectangling Rectification Network)という新しい学習モデルを提案する。
我々のモデルは、ソース構造をターゲット領域に柔軟にワープし、エンドツーエンドの非教師なし変形を実現する。
実験により, 定量評価と定性評価の両面において, 比較法よりも解法の方が優れていることが示された。
論文 参考訳(メタデータ) (2023-01-04T15:12:57Z) - Recursive Fusion and Deformable Spatiotemporal Attention for Video
Compression Artifact Reduction [36.255863808004065]
低品質圧縮ビデオから高品質な映像を復元するためのディープラーニングアルゴリズムが提案されている。
本稿では,長い時間範囲内での時間依存性をモデル化するための再帰核融合(RF)モジュールを提案する。
また,効率的な変形可能な時間的時間的注意(DSTA)モジュールを設計し,人工物に富む領域の復元により多くの労力を費やす。
論文 参考訳(メタデータ) (2021-08-04T15:25:27Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - NNCFR: Minimize Counterfactual Regret with Neural Networks [4.418221583366099]
本稿では, textitDeep CFRの改良版である textitNeural Network Counterfactual Regret Minimization (NNCFR) を紹介する。
textitNNCFRは、TextitDeep CFRよりも早く収束し、より安定して動作する。
論文 参考訳(メタデータ) (2021-05-26T04:58:36Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Relational Deep Feature Learning for Heterogeneous Face Recognition [17.494718795454055]
一般的な顔の特徴に加えて,グローバルな関係情報を抽出するグラフモジュール (Graph Module, NIR) を提案する。
提案手法は,5つの異種顔認識(HFR)データベースにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-02T07:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。