論文の概要: Interactive Video Object Segmentation Using Global and Local Transfer
Modules
- arxiv url: http://arxiv.org/abs/2007.08139v1
- Date: Thu, 16 Jul 2020 06:49:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:15:35.021904
- Title: Interactive Video Object Segmentation Using Global and Local Transfer
Modules
- Title(参考訳): グローバルおよびローカル転送モジュールを用いたインタラクティブビデオオブジェクトセグメンテーション
- Authors: Yuk Heo, Yeong Jun Koh and Chang-Su Kim
- Abstract要約: 我々はアノテーションネットワーク(A-Net)と転送ネットワーク(T-Net)からなるディープニューラルネットワークを開発する。
A-Netは、フレーム上のユーザ記述を前提として、エンコーダ-デコーダアーキテクチャに基づいたセグメンテーション結果を生成する。
ユーザスクリブルをエミュレートし,補助的な損失を生かして,ネットワーク全体を2段階に分けてトレーニングする。
- 参考スコア(独自算出の注目度): 51.93009196085043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An interactive video object segmentation algorithm, which takes scribble
annotations on query objects as input, is proposed in this paper. We develop a
deep neural network, which consists of the annotation network (A-Net) and the
transfer network (T-Net). First, given user scribbles on a frame, A-Net yields
a segmentation result based on the encoder-decoder architecture. Second, T-Net
transfers the segmentation result bidirectionally to the other frames, by
employing the global and local transfer modules. The global transfer module
conveys the segmentation information in an annotated frame to a target frame,
while the local transfer module propagates the segmentation information in a
temporally adjacent frame to the target frame. By applying A-Net and T-Net
alternately, a user can obtain desired segmentation results with minimal
efforts. We train the entire network in two stages, by emulating user scribbles
and employing an auxiliary loss. Experimental results demonstrate that the
proposed interactive video object segmentation algorithm outperforms the
state-of-the-art conventional algorithms. Codes and models are available at
https://github.com/yuk6heo/IVOS-ATNet.
- Abstract(参考訳): 本稿では,クエリオブジェクトのスクリブルアノテーションを入力として利用する対話型ビデオオブジェクトセグメンテーションアルゴリズムを提案する。
本稿では,アノテーションネットワーク(a-net)とトランスファーネットワーク(t-net)からなるディープニューラルネットワークを開発した。
まず、ユーザがフレームに書き込むと、a-netはエンコーダ-デコーダアーキテクチャに基づいてセグメンテーション結果を生成する。
第2に、T-Netは、グローバルおよびローカル転送モジュールを用いて、セグメント化結果を他のフレームに双方向に転送する。
グローバル転送モジュールは、アノテーション付きフレーム内のセグメンテーション情報をターゲットフレームに伝達し、ローカル転送モジュールは、時間的に隣接したフレーム内のセグメンテーション情報をターゲットフレームに伝搬する。
A-NetとT-Netを交互に適用することにより、ユーザは最小限の努力で所望のセグメンテーション結果を得ることができる。
ユーザの書き込みをエミュレートし,補助的損失を生かして,ネットワーク全体を2段階に訓練する。
実験の結果,提案する対話型ビデオオブジェクトセグメンテーションアルゴリズムは,従来のアルゴリズムよりも優れていた。
コードとモデルはhttps://github.com/yuk6heo/ivos-atnetで入手できる。
関連論文リスト
- CRCNet: Few-shot Segmentation with Cross-Reference and Region-Global
Conditional Networks [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
複数ショットセグメンテーションのためのクロスリファレンス・ローカル・グローバル・ネットワーク(CRCNet)を提案する。
我々のネットワークは、相互参照機構により、2つの画像に共起する物体をよりよく見つけることができる。
論文 参考訳(メタデータ) (2022-08-23T06:46:18Z) - EAA-Net: Rethinking the Autoencoder Architecture with Intra-class
Features for Medical Image Segmentation [4.777011444412729]
We propose a light-weight end-to-end segmentation framework based on multi-task learning, called Edge Attention autoencoder Network (EAA-Net)。
提案手法は,クラス間特徴の抽出にセグメンテーションネットワークを利用するだけでなく,フォアグラウンド内でのクラス内特徴の抽出にも再構成ネットワークを適用する。
実験結果から,医用画像分割作業において,本手法が良好に機能することが確認された。
論文 参考訳(メタデータ) (2022-08-19T07:42:55Z) - Boundary Knowledge Translation based Reference Semantic Segmentation [62.60078935335371]
視覚境界知識翻訳を行うための参照参照セグメンテーションネットワーク(Ref-Net)を導入する。
人間の認識機構にインスパイアされたRTMTMは、参照オブジェクトの特徴に基づいて、同じカテゴリオブジェクトをセグメント化するだけに考案されている。
Ref-Netは、数十の細かい注釈付きサンプルをガイダンスとして、完全に教師された6つのデータセットのメソッドと同等の結果を得る。
論文 参考訳(メタデータ) (2021-08-01T07:40:09Z) - Guided Interactive Video Object Segmentation Using Reliability-Based
Attention Maps [55.94785248905853]
本論文では,映像オブジェクトの対話的セグメンテーション(GIS)アルゴリズムを提案し,セグメンテーション精度の向上と対話時間の短縮を図る。
我々は,隣接フレームにセグメンテーション結果を伝達する,交差点対応伝搬モジュールを開発した。
実験により,提案アルゴリズムは従来のアルゴリズムよりも高速に精度の高いセグメンテーション結果を提供することを示した。
論文 参考訳(メタデータ) (2021-04-21T07:08:57Z) - A Novel Adaptive Deep Network for Building Footprint Segmentation [0.0]
衛星画像から地図へ変換することで得られる不正確な境界の問題を解くために,Pix2Pixを用いた新しいネットワーク手法を提案する。
本フレームワークは,第1発生器が局所化特徴を抽出し,第2発生器から抽出した境界特徴とマージし,すべての詳細構造エッジを分割する2つの生成器を含む。
提案したネットワークの結果の質を高めるために異なる戦略が実装され、提案ネットワークはセグメント化精度において最先端ネットワークよりも高い性能を示し、全ての評価指標に対する大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-02-27T18:13:48Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z) - Local Memory Attention for Fast Video Semantic Segmentation [157.7618884769969]
既存の単一フレームセマンティックセグメンテーションモデルをビデオセマンティックセグメンテーションパイプラインに変換する新しいニューラルネットワークモジュールを提案する。
我々のアプローチは過去のフレームにおける意味情報の豊富な表現をメモリモジュールに集約する。
都市景観におけるセグメンテーション性能は,それぞれ1.7%,2.1%改善し,erfnetの推論時間は1.5msに抑えられた。
論文 参考訳(メタデータ) (2021-01-05T18:57:09Z) - LSMVOS: Long-Short-Term Similarity Matching for Video Object [3.3518869877513895]
半教師付きビデオオブジェクトセグメンテーションは、第1フレームにオブジェクトラベルが与えられた後続のフレームでオブジェクトをセグメンテーションすることを指す。
本稿では,新しい伝搬法を探索し,短期的マッチングモジュールを用いて前のフレームの情報を抽出し,伝播に適用する。
長期マッチングモジュールと短期マッチングモジュールを組み合わせることで、オンラインの微調整なしに、ネットワーク全体が効率的なビデオオブジェクトセグメンテーションを実現することができる。
論文 参考訳(メタデータ) (2020-09-02T01:32:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。