論文の概要: Prior-Induced Information Alignment for Image Matting
- arxiv url: http://arxiv.org/abs/2106.14439v1
- Date: Mon, 28 Jun 2021 07:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 22:41:56.033622
- Title: Prior-Induced Information Alignment for Image Matting
- Title(参考訳): 画像マッティングのための事前情報アライメント
- Authors: Yuhao Liu, Jiake Xie, Yu Qiao, Yong Tang and, Xin Yang
- Abstract要約: 我々は、PIIAMatting(Presideed-induced Information Alignment Matting Network)という新しいネットワークを提案する。
ピクセルワイズ対応マップの区別と層ワイズ特徴マップの相関を効率的にモデル化することができる。
PIIAMattingはAlphamatting.com, composition-1K, Distinctions-646データセットの最先端の画像マッチング手法に対して好意的に機能する。
- 参考スコア(独自算出の注目度): 28.90998570043986
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Image matting is an ill-posed problem that aims to estimate the opacity of
foreground pixels in an image. However, most existing deep learning-based
methods still suffer from the coarse-grained details. In general, these
algorithms are incapable of felicitously distinguishing the degree of
exploration between deterministic domains (certain FG and BG pixels) and
undetermined domains (uncertain in-between pixels), or inevitably lose
information in the continuous sampling process, leading to a sub-optimal
result. In this paper, we propose a novel network named Prior-Induced
Information Alignment Matting Network (PIIAMatting), which can efficiently
model the distinction of pixel-wise response maps and the correlation of
layer-wise feature maps. It mainly consists of a Dynamic Gaussian Modulation
mechanism (DGM) and an Information Alignment strategy (IA). Specifically, the
DGM can dynamically acquire a pixel-wise domain response map learned from the
prior distribution. The response map can present the relationship between the
opacity variation and the convergence process during training. On the other
hand, the IA comprises an Information Match Module (IMM) and an Information
Aggregation Module (IAM), jointly scheduled to match and aggregate the adjacent
layer-wise features adaptively. Besides, we also develop a Multi-Scale
Refinement (MSR) module to integrate multi-scale receptive field information at
the refinement stage to recover the fluctuating appearance details. Extensive
quantitative and qualitative evaluations demonstrate that the proposed
PIIAMatting performs favourably against state-of-the-art image matting methods
on the Alphamatting.com, Composition-1K and Distinctions-646 dataset.
- Abstract(参考訳): 画像マッチングは画像中の前景画素の不透明度を推定することを目的とした不適切な問題である。
しかし、既存のディープラーニングベースの手法の多くは、いまだに粗い詳細に悩まされている。
一般に、これらのアルゴリズムは決定論的領域 (FG と BG の画素) と非決定的領域 (in-between のピクセル) の間の探索の度合いを決定的に区別することができない。
本稿では,画素間応答マップの識別と層間特徴マップの相関を効率的にモデル化できるpiiamatting(prior-induced information alignment matting network)という新しいネットワークを提案する。
主に動的ガウス変調機構(DGM)と情報調整戦略(IA)で構成されている。
具体的には、DGMは、先行分布から学習した画素単位のドメイン応答マップを動的に取得することができる。
応答マップは、トレーニング中の不透明度変動と収束過程の関係を示すことができる。
一方、IAは、情報マッチングモジュール(IMM)と情報集約モジュール(IAM)とから構成され、隣り合う階層的特徴を適応的にマッチングして集約する。
また,マルチスケール・レセプティブ・フィールド情報をレセプション段階で統合し,変動する外観詳細を復元するマルチスケール・リファインメント(msr)モジュールを開発した。
提案したPIIAMattingはAlphamatting.com, composition-1K, Distinctions-646データセットの最先端の画像マッチング手法に対して好適に動作することを示す。
関連論文リスト
- A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - Multi-Head Attention Residual Unfolded Network for Model-Based Pansharpening [2.874893537471256]
展開融合法は、ディープラーニングの強力な表現能力とモデルベースアプローチの堅牢性を統合する。
本稿では,衛星画像融合のためのモデルに基づく深部展開手法を提案する。
PRISMA、Quickbird、WorldView2データセットの実験結果から、本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2024-09-04T13:05:00Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Hi-ResNet: Edge Detail Enhancement for High-Resolution Remote Sensing Segmentation [10.919956120261539]
高分解能リモートセンシング(HRS)セマンティックセマンティクスは、高分解能カバレッジ領域からキーオブジェクトを抽出する。
HRS画像内の同じカテゴリのオブジェクトは、多様な地理的環境におけるスケールと形状の顕著な違いを示す。
効率的なネットワーク構造を持つ高分解能リモートセンシングネットワーク(Hi-ResNet)を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:58:25Z) - Adaptive Graph Convolution Module for Salient Object Detection [7.278033100480174]
本稿では,複雑なシーンを扱うための適応型グラフ畳み込みモジュール(AGCM)を提案する。
学習可能な領域生成層を用いて入力画像からプロトタイプ特徴を抽出する。
提案したAGCMは,SOD性能を定量的かつ定量的に劇的に向上させる。
論文 参考訳(メタデータ) (2023-03-17T07:07:17Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Content-aware Directed Propagation Network with Pixel Adaptive Kernel
Attention [20.0783340490331]
画素適応カーネルアテンション(Paka)と呼ばれる新しい操作を提案する。
PAKAは、学習可能な特徴から空間的に異なる注意を掛けることで、フィルタ重みへの指向性を提供する。
本手法はエンドツーエンドで学習可能であり,任意のCNNモデルに適用可能である。
論文 参考訳(メタデータ) (2021-07-28T02:59:19Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - Hierarchical Opacity Propagation for Image Matting [15.265494938937737]
ピクセル間のより直接的アルファマット伝播のための新しい構造が要求されている。
HOPマッティングは最先端のマッティング法より優れている。
論文 参考訳(メタデータ) (2020-04-07T10:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。