論文の概要: Focused and Collaborative Feedback Integration for Interactive Image
Segmentation
- arxiv url: http://arxiv.org/abs/2303.11880v1
- Date: Tue, 21 Mar 2023 14:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 14:49:36.659666
- Title: Focused and Collaborative Feedback Integration for Interactive Image
Segmentation
- Title(参考訳): インタラクティブ画像セグメンテーションのための集中型および協調型フィードバック統合
- Authors: Qiaoqiao Wei, Hui Zhang and Jun-Hai Yong
- Abstract要約: クリック型インタラクティブ画像セグメンテーションのフィードバックをフル活用するために,Focused and Collaborative Feedback Integration (FCFI)を提案する。
FCFIはまず、新しいクリックに関するローカル領域に焦点を当て、ハイレベル機能の類似性に基づいてフィードバックを修正する。
そして、フィードバックと深い機能を交互に共同で更新し、機能にフィードバックを統合する。
- 参考スコア(独自算出の注目度): 11.340655605966235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interactive image segmentation aims at obtaining a segmentation mask for an
image using simple user annotations. During each round of interaction, the
segmentation result from the previous round serves as feedback to guide the
user's annotation and provides dense prior information for the segmentation
model, effectively acting as a bridge between interactions. Existing methods
overlook the importance of feedback or simply concatenate it with the original
input, leading to underutilization of feedback and an increase in the number of
required annotations. To address this, we propose an approach called Focused
and Collaborative Feedback Integration (FCFI) to fully exploit the feedback for
click-based interactive image segmentation. FCFI first focuses on a local area
around the new click and corrects the feedback based on the similarities of
high-level features. It then alternately and collaboratively updates the
feedback and deep features to integrate the feedback into the features. The
efficacy and efficiency of FCFI were validated on four benchmarks, namely
GrabCut, Berkeley, SBD, and DAVIS. Experimental results show that FCFI achieved
new state-of-the-art performance with less computational overhead than previous
methods. The source code is available at
https://github.com/veizgyauzgyauz/FCFI.
- Abstract(参考訳): インタラクティブな画像セグメンテーションは、単純なユーザアノテーションを使用して画像のセグメンテーションマスクを得ることを目的としている。
インタラクションの各ラウンドの間、前回のラウンドからのセグメンテーション結果は、ユーザのアノテーションを導くフィードバックとなり、セグメンテーションモデルに密接な事前情報を提供し、インタラクション間の橋渡しとして効果的に機能する。
既存のメソッドは、フィードバックの重要性を見逃したり、単に元の入力と結合するだけで、フィードバックの過度な活用と必要なアノテーションの数の増加につながる。
そこで本研究では,fcfi(focused and collaborative feedback integration)と呼ばれる手法を提案する。
FCFIはまず、新しいクリックに関する地域に焦点を当て、ハイレベル機能の類似性に基づいてフィードバックを修正する。
そして、フィードバックと深い機能を交互に共同で更新し、機能にフィードバックを統合する。
FCFIの有効性と効率はGrabCut, Berkeley, SBD, DAVISの4つのベンチマークで検証された。
実験の結果,FCFIは従来の手法に比べて計算オーバーヘッドが少なく,新しい最先端性能を実現した。
ソースコードはhttps://github.com/veizgyauzgyauz/fcfiで入手できる。
関連論文リスト
- Refining Segmentation On-the-Fly: An Interactive Framework for Point
Cloud Semantic Segmentation [9.832150567595718]
ポイントクラウドセマンティックセマンティックセグメンテーションのための最初の対話型フレームワークであるInterPCSegを提示する。
本研究では,対話型ポイントクラウドセマンティックセマンティックセグメンテーションタスクに適したインタラクションシミュレーション手法を開発した。
市販セグメンテーションネットワークを用いたS3DISおよびScanNetデータセットのフレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-03-11T03:24:58Z) - FuseNet: Self-Supervised Dual-Path Network for Medical Image
Segmentation [3.485615723221064]
FuseNetは、自己教師型セマンティックセグメンテーションのためのデュアルストリームフレームワークである。
クロスモーダル融合技術は、テキストデータを拡張画像に置き換えることで、CLIPの原理を拡張している。
皮膚病変と肺分画データセットの実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-22T00:03:16Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Holistic Prototype Attention Network for Few-Shot VOS [74.25124421163542]
FSVOS(Few-shot Video Object segmentation)は、少数のサポートイメージに頼って、目に見えないクラスの動的オブジェクトをセグメントすることを目的としている。
本稿では,FSVOS を前進させるための総合プロトタイプアテンションネットワーク (HPAN) を提案する。
論文 参考訳(メタデータ) (2023-07-16T03:48:57Z) - CorrMatch: Label Propagation via Correlation Matching for
Semi-Supervised Semantic Segmentation [73.89509052503222]
本稿では、CorrMatchと呼ばれる、単純だが実行可能な半教師付きセマンティックセマンティックセマンティックセマンティクス手法を提案する。
相関写像は、同一カテゴリのクラスタリングピクセルを容易に実現できるだけでなく、良好な形状情報も含んでいることを観察する。
我々は,高信頼画素を拡大し,さらに掘り出すために,画素の対の類似性をモデル化して画素伝搬を行う。
そして、相関地図から抽出した正確なクラス非依存マスクを用いて、領域伝搬を行い、擬似ラベルを強化する。
論文 参考訳(メタデータ) (2023-06-07T10:02:29Z) - A Cross-Scale Hierarchical Transformer with Correspondence-Augmented
Attention for inferring Bird's-Eye-View Semantic Segmentation [13.013635162859108]
マルチカメラビュー画像に条件付きBEVセマンティックセマンティックセマンティクスを推定することは、安価なデバイスとリアルタイム処理としてコミュニティで人気がある。
セマンティックセグメンテーション推論のための対応強化された注目度を持つ新しいクロススケール階層変換器を提案する。
マルチカメラビュー画像上でのBEVセマンティックセマンティックセグメンテーションの推測における最先端性能を有する。
論文 参考訳(メタデータ) (2023-04-07T13:52:47Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Multi-Stage Fusion for One-Click Segmentation [20.00726292545008]
対話型セグメンテーションのための多段階ガイダンスフレームワークを提案する。
提案フレームワークは,早期融合フレームワークと比較してパラメータ数の増加は無視できない。
論文 参考訳(メタデータ) (2020-10-19T17:07:40Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - FAIRS -- Soft Focus Generator and Attention for Robust Object
Segmentation from Extreme Points [70.65563691392987]
本稿では,ユーザ入力からオブジェクトのセグメンテーションを極端点と補正クリックの形で生成する手法を提案する。
提案手法は,エクストリームポイント,クリック誘導,修正クリックを原則として組み込んだ,高品質なトレーニングデータを生成する能力とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2020-04-04T22:25:47Z) - DISIR: Deep Image Segmentation with Interactive Refinement [26.087244189340858]
本稿では,空中画像のマルチクラスセグメンテーションのためのインタラクティブなアプローチを提案する。
RGBイメージとアノテーションの両方を活用するディープニューラルネットワークに基づいている。
クリックごとに約5000ピクセルが修正されます。
論文 参考訳(メタデータ) (2020-03-31T13:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。