論文の概要: Boundary-Aware Segmentation Network for Mobile and Web Applications
- arxiv url: http://arxiv.org/abs/2101.04704v1
- Date: Tue, 12 Jan 2021 19:20:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 06:27:02.839413
- Title: Boundary-Aware Segmentation Network for Mobile and Web Applications
- Title(参考訳): モバイルおよびwebアプリケーションのための境界対応セグメンテーションネットワーク
- Authors: Xuebin Qin and Deng-Ping Fan and Chenyang Huang and Cyril Diagne and
Zichen Zhang and Adri\`a Cabeza Sant'Anna and Albert Su\`arez and Martin
Jagersand and Ling Shao
- Abstract要約: 境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
- 参考スコア(独自算出の注目度): 60.815545591314915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep models have greatly improved the accuracy and robustness of
image segmentation, obtaining segmentation results with highly accurate
boundaries and fine structures is still a challenging problem. In this paper,
we propose a simple yet powerful Boundary-Aware Segmentation Network (BASNet),
which comprises a predict-refine architecture and a hybrid loss, for highly
accurate image segmentation. The predict-refine architecture consists of a
densely supervised encoder-decoder network and a residual refinement module,
which are respectively used to predict and refine a segmentation probability
map. The hybrid loss is a combination of the binary cross entropy, structural
similarity and intersection-over-union losses, which guide the network to learn
three-level (ie, pixel-, patch- and map- level) hierarchy representations. We
evaluate our BASNet on two reverse tasks including salient object segmentation,
camouflaged object segmentation, showing that it achieves very competitive
performance with sharp segmentation boundaries. Importantly, BASNet runs at
over 70 fps on a single GPU which benefits many potential real applications.
Based on BASNet, we further developed two (close to) commercial applications:
AR COPY & PASTE, in which BASNet is integrated with augmented reality for
"COPYING" and "PASTING" real-world objects, and OBJECT CUT, which is a
web-based tool for automatic object background removal. Both applications have
already drawn huge amount of attention and have important real-world impacts.
The code and two applications will be publicly available at:
https://github.com/NathanUA/BASNet.
- Abstract(参考訳): 深層モデルは画像分割の精度とロバスト性を大幅に向上させたが、高精度な境界と微細構造を持つセグメンテーション結果を得ることは依然として課題である。
本稿では,予測再定義アーキテクチャとハイブリッド損失を含む,シンプルながら強力な境界認識セグメンテーションネットワーク(BASNet)を提案し,高精度な画像セグメンテーションを実現する。
予測再定義アーキテクチャは、分割確率マップの予測と精錬にそれぞれ使用される、密集した教師付きエンコーダ-デコーダネットワークと残留精細モジュールで構成される。
ハイブリッド損失は、二進的クロスエントロピー、構造的類似性、および交叉対ユニオン損失の組み合わせであり、ネットワークは3レベル(ピクセルレベル、パッチレベル、マップレベル)の階層表現を学習するよう誘導する。
我々は,有能なオブジェクトセグメンテーション,カモフラージュされたオブジェクトセグメンテーションを含む2つの逆タスクに対して,BASNetを評価し,鋭いセグメンテーション境界で非常に競争的な性能を実現することを示す。
重要な点として、BASNetは単一のGPU上で70fps以上で動作する。
basnetをベースにして、arコピー&ペースト(ar copy & paste)という2つの商用アプリケーションを開発し、basnetは現実世界のオブジェクトの「コピー」と「ペースト」のために拡張現実と統合され、オブジェクトの背景を自動的に除去するwebベースのツールであるobject cut(オブジェクトカット)を開発した。
どちらのアプリケーションもすでに多くの注目を集めており、現実世界に大きな影響を与えている。
コードと2つのアプリケーションは、https://github.com/NathanUA/BASNetで公開される。
関連論文リスト
- DDU-Net: A Domain Decomposition-based CNN for High-Resolution Image Segmentation on Multiple GPUs [46.873264197900916]
ドメイン分解に基づくU-Netアーキテクチャを導入し、入力イメージを重複しないパッチに分割する。
空間コンテキストの理解を高めるために、パッチ間情報交換を容易にするための通信ネットワークが追加される。
その結果、この手法は、パッチ間通信のない同一ネットワークと比較して、IoU(Universal over Union)スコアよりも2~3,%高い交点を達成できることが判明した。
論文 参考訳(メタデータ) (2024-07-31T01:07:21Z) - Simple and Efficient Architectures for Semantic Segmentation [50.1563637917129]
ResNetのようなバックボーンと小型のマルチスケールヘッドを備えた単純なエンコーダデコーダアーキテクチャは,HRNetやFANet,DDRNetといった複雑なセマンティックセマンティックセマンティクスアーキテクチャよりも優れていることを示す。
そこで我々は,Cityscapesデータセット上の複雑なモデルの性能に適合する,あるいは超越した,デスクトップおよびモバイルターゲット用のこのようなシンプルなアーキテクチャのファミリーを提示する。
論文 参考訳(メタデータ) (2022-06-16T15:08:34Z) - Collaborative Attention Memory Network for Video Object Segmentation [3.8520227078236013]
セグメンテーションヘッドを拡張した協調注意記憶ネットワークを提案する。
また,STMネットワークとこれらすべての改良されたCFBIネットワークを組み合わせたアンサンブルネットワークを提案する。
最後に、2021年のYoutube-VOSチャレンジにおいて、総合スコア83.5%で6位となるアプローチを評価した。
論文 参考訳(メタデータ) (2022-05-17T03:40:11Z) - A Unified Architecture of Semantic Segmentation and Hierarchical
Generative Adversarial Networks for Expression Manipulation [52.911307452212256]
セマンティックセグメンテーションと階層的GANの統一アーキテクチャを開発する。
我々のフレームワークのユニークな利点は、将来的なセマンティックセグメンテーションネットワーク条件を生成モデルに渡すことである。
我々は,AffectNetとRaFDの2つの難解な表情翻訳ベンチマークとセマンティックセグメンテーションベンチマークであるCelebAMask-HQについて評価を行った。
論文 参考訳(メタデータ) (2021-12-08T22:06:31Z) - A Novel Adaptive Deep Network for Building Footprint Segmentation [0.0]
衛星画像から地図へ変換することで得られる不正確な境界の問題を解くために,Pix2Pixを用いた新しいネットワーク手法を提案する。
本フレームワークは,第1発生器が局所化特徴を抽出し,第2発生器から抽出した境界特徴とマージし,すべての詳細構造エッジを分割する2つの生成器を含む。
提案したネットワークの結果の質を高めるために異なる戦略が実装され、提案ネットワークはセグメント化精度において最先端ネットワークよりも高い性能を示し、全ての評価指標に対する大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-02-27T18:13:48Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - CARAFE++: Unified Content-Aware ReAssembly of FEatures [132.49582482421246]
この目標を達成するために、ユニバーサルで軽量で高効率なオペレータであるContent-Aware ReAssembly of FEatures(CARAFE++)を提案します。
CARAFE++は、インスタンス固有のコンテンツ認識処理を可能にするアダプティブカーネルをオンザフライで生成する。
計算のオーバーヘッドが無視できるすべてのタスクにおいて、一貫性と実質的な利益を示しています。
論文 参考訳(メタデータ) (2020-12-07T07:34:57Z) - Auto-Panoptic: Cooperative Multi-Component Architecture Search for
Panoptic Segmentation [144.50154657257605]
本稿では、バックボーン、セグメンテーションブランチ、フィーチャーフュージョンモジュールを含むすべての主要コンポーネントを同時に検索する効率的なフレームワークを提案する。
検索したアーキテクチャ、すなわちAuto-Panopticは、挑戦的なCOCOとADE20Kベンチマークに関する新しい最先端技術を実現します。
論文 参考訳(メタデータ) (2020-10-30T08:34:35Z) - Multi-scale Attention U-Net (MsAUNet): A Modified U-Net Architecture for
Scene Segmentation [1.713291434132985]
画像からコンテキスト情報を用いたシーンセグメンテーションのためのマルチスケールアテンションネットワークを提案する。
このネットワークは、局所的な特徴をグローバルな特徴にマップし、精度を向上し、識別画像領域を強調する。
我々はPascalVOC2012とADE20kという2つの標準データセットでモデルを評価した。
論文 参考訳(メタデータ) (2020-09-15T08:03:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。