論文の概要: Revisiting Context Aggregation for Image Matting
- arxiv url: http://arxiv.org/abs/2304.01171v2
- Date: Wed, 15 May 2024 02:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 18:41:34.612893
- Title: Revisiting Context Aggregation for Image Matting
- Title(参考訳): 画像マッチングにおけるコンテキストアグリゲーションの再検討
- Authors: Qinglin Liu, Xiaoqian Lv, Quanling Meng, Zonglin Li, Xiangyuan Lan, Shuo Yang, Shengping Zhang, Liqiang Nie,
- Abstract要約: AEMatter(英語版)は、簡単なが非常に効果的であるマットネットワークである。
AEMatterは、外観強化軸方向学習(AEAL)ブロックを備えたHybrid-Transformerバックボーンを採用し、強いコンテキストアグリゲーション学習機能を備えた基本ネットワークを構築する。
5つの一般的なマッティングデータセットに対する大規模な実験は、提案されたAEMatterが最先端のマッティング手法を大きなマージンで上回ることを示した。
- 参考スコア(独自算出の注目度): 57.90127743270313
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditional studies emphasize the significance of context information in improving matting performance. Consequently, deep learning-based matting methods delve into designing pooling or affinity-based context aggregation modules to achieve superior results. However, these modules cannot well handle the context scale shift caused by the difference in image size during training and inference, resulting in matting performance degradation. In this paper, we revisit the context aggregation mechanisms of matting networks and find that a basic encoder-decoder network without any context aggregation modules can actually learn more universal context aggregation, thereby achieving higher matting performance compared to existing methods. Building on this insight, we present AEMatter, a matting network that is straightforward yet very effective. AEMatter adopts a Hybrid-Transformer backbone with appearance-enhanced axis-wise learning (AEAL) blocks to build a basic network with strong context aggregation learning capability. Furthermore, AEMatter leverages a large image training strategy to assist the network in learning context aggregation from data. Extensive experiments on five popular matting datasets demonstrate that the proposed AEMatter outperforms state-of-the-art matting methods by a large margin.
- Abstract(参考訳): 伝統的な研究は、交配性能を改善する上での文脈情報の重要性を強調している。
その結果、深層学習に基づくマッチング手法は、プーリングや親和性に基づくコンテキストアグリゲーションモジュールを設計し、優れた結果を得ることができた。
しかし、これらのモジュールはトレーニング中の画像サイズの違いによるコンテキストスケールシフトをうまく処理することができず、結果としてマッチング性能が低下する。
本稿では、マッチングネットワークのコンテキストアグリゲーション機構を再検討し、コンテキストアグリゲーションモジュールのない基本エンコーダ・デコーダネットワークが実際により普遍的なコンテキストアグリゲーションを学習できることを見出した。
この洞察に基づいて、直感的だが非常に効果的であるマットネットワークであるAEMatterを紹介します。
AEMatterは、外観強化軸方向学習(AEAL)ブロックを備えたHybrid-Transformerバックボーンを採用し、強いコンテキストアグリゲーション学習機能を備えた基本ネットワークを構築する。
さらに、AEMatterは大規模な画像トレーニング戦略を利用して、データからコンテキストアグリゲーションを学習するネットワークを支援する。
5つの一般的なマッティングデータセットに対する大規模な実験は、提案されたAEMatterが最先端のマッティング手法を大きなマージンで上回ることを示した。
関連論文リスト
- Deep ContourFlow: Advancing Active Contours with Deep Learning [3.9948520633731026]
画像分割のための教師なしとワンショットの両方のアプローチのためのフレームワークを提案する。
広範なラベル付きトレーニングデータを必要とせずに、複雑なオブジェクト境界をキャプチャできる。
これは特に、注釈の不足に直面している分野である歴史学において必要である。
論文 参考訳(メタデータ) (2024-07-15T13:12:34Z) - DAFormer: Improving Network Architectures and Training Strategies for
Domain-Adaptive Semantic Segmentation [99.88539409432916]
教師なしドメイン適応(UDA)プロセスについて検討する。
ベンチマーク結果に基づいて,新しい UDA 手法である DAFormer を提案する。
DAFormerは,GTA->Cityscapesの10.8 mIoU,Synthia->Cityscapesの5.4 mIoUにより,最先端の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-29T19:00:46Z) - Prior-Induced Information Alignment for Image Matting [28.90998570043986]
我々は、PIIAMatting(Presideed-induced Information Alignment Matting Network)という新しいネットワークを提案する。
ピクセルワイズ対応マップの区別と層ワイズ特徴マップの相関を効率的にモデル化することができる。
PIIAMattingはAlphamatting.com, composition-1K, Distinctions-646データセットの最先端の画像マッチング手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2021-06-28T07:46:59Z) - Deep Video Matting via Spatio-Temporal Alignment and Aggregation [63.6870051909004]
新たな集計機能モジュール(STFAM)を用いた深層学習型ビデオマッチングフレームワークを提案する。
フレーム毎のトリマップアノテーションを排除するため、軽量なインタラクティブなトリマップ伝搬ネットワークも導入されている。
私達のフレームワークは従来のビデオ マットおよび深いイメージのマットの方法よりかなり優秀です。
論文 参考訳(メタデータ) (2021-04-22T17:42:08Z) - Context Decoupling Augmentation for Weakly Supervised Semantic
Segmentation [53.49821324597837]
微調整されたセマンティックセグメンテーションは、近年深く研究されている困難な問題です。
本稿では、オブジェクトが現れる固有のコンテキストを変更する Context Decoupling Augmentation (CDA) メソッドを紹介します。
提案手法の有効性を検証するため, PASCAL VOC 2012データセットにいくつかの代替ネットワークアーキテクチャを用いた広範な実験を行い, CDAが様々なWSSS手法を新たな最先端技術に拡張できることを実証した。
論文 参考訳(メタデータ) (2021-03-02T15:05:09Z) - Contextual Interference Reduction by Selective Fine-Tuning of Neural
Networks [1.0152838128195465]
本研究では,不整合前景対象オブジェクト表現の干渉におけるコンテキストの役割について検討する。
私たちはボトムアップとトップダウンの処理パラダイムの恩恵を受けるフレームワークに取り組んでいます。
論文 参考訳(メタデータ) (2020-11-21T20:11:12Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Improving Learning Effectiveness For Object Detection and Classification
in Cluttered Backgrounds [6.729108277517129]
本稿では,異種乱雑な背景の学習データセットを自律的に生成するフレームワークを開発する。
提案するフレームワークの学習効率は,複雑で異種な環境で改善されるべきである。
提案フレームワークの性能を実証実験により検討し,COCOデータセットを用いてトレーニングしたモデルと比較した。
論文 参考訳(メタデータ) (2020-02-27T22:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。