論文の概要: Rethinking Context Aggregation in Natural Image Matting
- arxiv url: http://arxiv.org/abs/2304.01171v1
- Date: Mon, 3 Apr 2023 17:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 14:15:12.893293
- Title: Rethinking Context Aggregation in Natural Image Matting
- Title(参考訳): 自然画像マッティングにおけるコンテキストアグリゲーションの再考
- Authors: Qinglin Liu, Shengping Zhang, Quanling Meng, Ru Li, Bineng Zhong,
Liqiang Nie
- Abstract要約: 我々は,コンテキストアグリゲーションモジュールが実際に期待したほど効果的ではないことを示す実験を行う。
また,大規模な画像パッチから学習すると,より広い受容領域を持つ基本エンコーダ・デコーダネットワークがコンテキストを効果的に集約し,より優れた性能を実現することを実証した。
本稿では,AEMatter という名前のシンプルなマッチングネットワークを提案する。このネットワークは,エンコーダに外見に富んだ軸方向の学習ブロックを組み込んで,ハイブリッドトランスフォーマーデコーダを採用することで,受容界を拡大する。
- 参考スコア(独自算出の注目度): 69.9111062345292
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: For natural image matting, context information plays a crucial role in
estimating alpha mattes especially when it is challenging to distinguish
foreground from its background. Exiting deep learning-based methods exploit
specifically designed context aggregation modules to refine encoder features.
However, the effectiveness of these modules has not been thoroughly explored.
In this paper, we conduct extensive experiments to reveal that the context
aggregation modules are actually not as effective as expected. We also
demonstrate that when learned on large image patches, basic encoder-decoder
networks with a larger receptive field can effectively aggregate context to
achieve better performance.Upon the above findings, we propose a simple yet
effective matting network, named AEMatter, which enlarges the receptive field
by incorporating an appearance-enhanced axis-wise learning block into the
encoder and adopting a hybrid-transformer decoder. Experimental results on four
datasets demonstrate that our AEMatter significantly outperforms
state-of-the-art matting methods (e.g., on the Adobe Composition-1K dataset,
\textbf{25\%} and \textbf{40\%} reduction in terms of SAD and MSE,
respectively, compared against MatteFormer). The code and model are available
at \url{https://github.com/QLYoo/AEMatter}.
- Abstract(参考訳): 自然な画像マッチングでは、背景と背景を区別することが困難である場合、文脈情報はアルファマットの推定において重要な役割を果たす。
ディープラーニングベースのメソッドの出力は、特に設計されたコンテキストアグリゲーションモジュールを利用してエンコーダ機能を洗練する。
しかし、これらのモジュールの有効性は十分に調査されていない。
本稿では,コンテキストアグリゲーションモジュールが期待したほど効果的ではないことを示すために,広範な実験を行う。
また,大きなイメージパッチで学習すると,より大きな受容領域を持つ基本エンコーダ・デコーダネットワークは,コンテキストを効果的に集約し,より優れた性能を実現することができることを実証する。本報告では,エンコーダに外観強調軸方向学習ブロックを組み込んで,ハイブリッドトランスフォーマデコーダを採用することで,受容領域を拡大する簡易かつ効果的なマットリングネットワークaematterを提案する。
4つのデータセットに対する実験結果から、我々のAEMatterは最先端のマッティング手法(例えばAdobe Composition-1Kデータセットでは、SADとMSEのそれぞれで、それぞれ \textbf{25\%} と \textbf{40\%} の削減)を大幅に上回っていることが示されています。
コードとモデルは \url{https://github.com/qlyoo/aematter} で利用可能である。
関連論文リスト
- Relational Contrastive Learning and Masked Image Modeling for Scene Text Recognition [36.59116507158687]
STR(RCMSTR)のためのコントラスト学習とマスケ画像モデリングの統合フレームワークを提案する。
提案したRCMSTRは、STR関連下流タスクにおいて優れた性能を示し、既存の最先端の自己教師型STR技術よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-18T01:11:47Z) - Deep ContourFlow: Advancing Active Contours with Deep Learning [3.9948520633731026]
画像分割のための教師なしとワンショットの両方のアプローチのためのフレームワークを提案する。
広範なラベル付きトレーニングデータを必要とせずに、複雑なオブジェクト境界をキャプチャできる。
これは特に、注釈の不足に直面している分野である歴史学において必要である。
論文 参考訳(メタデータ) (2024-07-15T13:12:34Z) - DAFormer: Improving Network Architectures and Training Strategies for
Domain-Adaptive Semantic Segmentation [99.88539409432916]
教師なしドメイン適応(UDA)プロセスについて検討する。
ベンチマーク結果に基づいて,新しい UDA 手法である DAFormer を提案する。
DAFormerは,GTA->Cityscapesの10.8 mIoU,Synthia->Cityscapesの5.4 mIoUにより,最先端の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-29T19:00:46Z) - Prior-Induced Information Alignment for Image Matting [28.90998570043986]
我々は、PIIAMatting(Presideed-induced Information Alignment Matting Network)という新しいネットワークを提案する。
ピクセルワイズ対応マップの区別と層ワイズ特徴マップの相関を効率的にモデル化することができる。
PIIAMattingはAlphamatting.com, composition-1K, Distinctions-646データセットの最先端の画像マッチング手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2021-06-28T07:46:59Z) - Deep Video Matting via Spatio-Temporal Alignment and Aggregation [63.6870051909004]
新たな集計機能モジュール(STFAM)を用いた深層学習型ビデオマッチングフレームワークを提案する。
フレーム毎のトリマップアノテーションを排除するため、軽量なインタラクティブなトリマップ伝搬ネットワークも導入されている。
私達のフレームワークは従来のビデオ マットおよび深いイメージのマットの方法よりかなり優秀です。
論文 参考訳(メタデータ) (2021-04-22T17:42:08Z) - Context Decoupling Augmentation for Weakly Supervised Semantic
Segmentation [53.49821324597837]
微調整されたセマンティックセグメンテーションは、近年深く研究されている困難な問題です。
本稿では、オブジェクトが現れる固有のコンテキストを変更する Context Decoupling Augmentation (CDA) メソッドを紹介します。
提案手法の有効性を検証するため, PASCAL VOC 2012データセットにいくつかの代替ネットワークアーキテクチャを用いた広範な実験を行い, CDAが様々なWSSS手法を新たな最先端技術に拡張できることを実証した。
論文 参考訳(メタデータ) (2021-03-02T15:05:09Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Improving Learning Effectiveness For Object Detection and Classification
in Cluttered Backgrounds [6.729108277517129]
本稿では,異種乱雑な背景の学習データセットを自律的に生成するフレームワークを開発する。
提案するフレームワークの学習効率は,複雑で異種な環境で改善されるべきである。
提案フレームワークの性能を実証実験により検討し,COCOデータセットを用いてトレーニングしたモデルと比較した。
論文 参考訳(メタデータ) (2020-02-27T22:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。