論文の概要: Focused and Collaborative Feedback Integration for Interactive Image
Segmentation
- arxiv url: http://arxiv.org/abs/2303.11880v1
- Date: Tue, 21 Mar 2023 14:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 14:49:36.659666
- Title: Focused and Collaborative Feedback Integration for Interactive Image
Segmentation
- Title(参考訳): インタラクティブ画像セグメンテーションのための集中型および協調型フィードバック統合
- Authors: Qiaoqiao Wei, Hui Zhang and Jun-Hai Yong
- Abstract要約: クリック型インタラクティブ画像セグメンテーションのフィードバックをフル活用するために,Focused and Collaborative Feedback Integration (FCFI)を提案する。
FCFIはまず、新しいクリックに関するローカル領域に焦点を当て、ハイレベル機能の類似性に基づいてフィードバックを修正する。
そして、フィードバックと深い機能を交互に共同で更新し、機能にフィードバックを統合する。
- 参考スコア(独自算出の注目度): 11.340655605966235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interactive image segmentation aims at obtaining a segmentation mask for an
image using simple user annotations. During each round of interaction, the
segmentation result from the previous round serves as feedback to guide the
user's annotation and provides dense prior information for the segmentation
model, effectively acting as a bridge between interactions. Existing methods
overlook the importance of feedback or simply concatenate it with the original
input, leading to underutilization of feedback and an increase in the number of
required annotations. To address this, we propose an approach called Focused
and Collaborative Feedback Integration (FCFI) to fully exploit the feedback for
click-based interactive image segmentation. FCFI first focuses on a local area
around the new click and corrects the feedback based on the similarities of
high-level features. It then alternately and collaboratively updates the
feedback and deep features to integrate the feedback into the features. The
efficacy and efficiency of FCFI were validated on four benchmarks, namely
GrabCut, Berkeley, SBD, and DAVIS. Experimental results show that FCFI achieved
new state-of-the-art performance with less computational overhead than previous
methods. The source code is available at
https://github.com/veizgyauzgyauz/FCFI.
- Abstract(参考訳): インタラクティブな画像セグメンテーションは、単純なユーザアノテーションを使用して画像のセグメンテーションマスクを得ることを目的としている。
インタラクションの各ラウンドの間、前回のラウンドからのセグメンテーション結果は、ユーザのアノテーションを導くフィードバックとなり、セグメンテーションモデルに密接な事前情報を提供し、インタラクション間の橋渡しとして効果的に機能する。
既存のメソッドは、フィードバックの重要性を見逃したり、単に元の入力と結合するだけで、フィードバックの過度な活用と必要なアノテーションの数の増加につながる。
そこで本研究では,fcfi(focused and collaborative feedback integration)と呼ばれる手法を提案する。
FCFIはまず、新しいクリックに関する地域に焦点を当て、ハイレベル機能の類似性に基づいてフィードバックを修正する。
そして、フィードバックと深い機能を交互に共同で更新し、機能にフィードバックを統合する。
FCFIの有効性と効率はGrabCut, Berkeley, SBD, DAVISの4つのベンチマークで検証された。
実験の結果,FCFIは従来の手法に比べて計算オーバーヘッドが少なく,新しい最先端性能を実現した。
ソースコードはhttps://github.com/veizgyauzgyauz/fcfiで入手できる。
関連論文リスト
- FCC: Fully Connected Correlation for Few-Shot Segmentation [11.277022867553658]
Few-shot segmentation (FSS) は、少数のサポートイメージとマスクのみを使用して、ターゲットオブジェクトをクエリイメージにセグメントすることを目的としている。
従来の手法では, 最終層や同層の特徴に対する画素レベルの相関関係から相関写像を作成することで, 事前情報を得る方法が試みられている。
サポート機能とクエリ機能の間にピクセルレベルの相関関係を統合するためにFCC(Fully Connected correlation)を導入する。
論文 参考訳(メタデータ) (2024-11-18T03:32:02Z) - EDGE-Rec: Efficient and Data-Guided Edge Diffusion For Recommender Systems Graphs [0.0]
本稿では,ユーザとアイテムの機能だけでなく,リアルタイムなインタラクションの重み付けを生かした新しいアテンション機構を提案する。
我々は,ユーザ・イテム相互作用グラフの重み付き相互作用行列を反復的に復調するために,新しいグラフ拡散変換器GDiTアーキテクチャを訓練する。
テキスト条件付き画像生成の最近の進歩に触発されて,本手法は,従来の評価と同一スケールのユーザ・イテム評価を直接生成する。
論文 参考訳(メタデータ) (2024-09-23T03:23:20Z) - FuseNet: Self-Supervised Dual-Path Network for Medical Image
Segmentation [3.485615723221064]
FuseNetは、自己教師型セマンティックセグメンテーションのためのデュアルストリームフレームワークである。
クロスモーダル融合技術は、テキストデータを拡張画像に置き換えることで、CLIPの原理を拡張している。
皮膚病変と肺分画データセットの実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-22T00:03:16Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Holistic Prototype Attention Network for Few-Shot VOS [74.25124421163542]
FSVOS(Few-shot Video Object segmentation)は、少数のサポートイメージに頼って、目に見えないクラスの動的オブジェクトをセグメントすることを目的としている。
本稿では,FSVOS を前進させるための総合プロトタイプアテンションネットワーク (HPAN) を提案する。
論文 参考訳(メタデータ) (2023-07-16T03:48:57Z) - CorrMatch: Label Propagation via Correlation Matching for
Semi-Supervised Semantic Segmentation [73.89509052503222]
本稿では、CorrMatchと呼ばれる、単純だが実行可能な半教師付きセマンティックセマンティックセマンティックセマンティクス手法を提案する。
相関写像は、同一カテゴリのクラスタリングピクセルを容易に実現できるだけでなく、良好な形状情報も含んでいることを観察する。
我々は,高信頼画素を拡大し,さらに掘り出すために,画素の対の類似性をモデル化して画素伝搬を行う。
そして、相関地図から抽出した正確なクラス非依存マスクを用いて、領域伝搬を行い、擬似ラベルを強化する。
論文 参考訳(メタデータ) (2023-06-07T10:02:29Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Multi-Stage Fusion for One-Click Segmentation [20.00726292545008]
対話型セグメンテーションのための多段階ガイダンスフレームワークを提案する。
提案フレームワークは,早期融合フレームワークと比較してパラメータ数の増加は無視できない。
論文 参考訳(メタデータ) (2020-10-19T17:07:40Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - FAIRS -- Soft Focus Generator and Attention for Robust Object
Segmentation from Extreme Points [70.65563691392987]
本稿では,ユーザ入力からオブジェクトのセグメンテーションを極端点と補正クリックの形で生成する手法を提案する。
提案手法は,エクストリームポイント,クリック誘導,修正クリックを原則として組み込んだ,高品質なトレーニングデータを生成する能力とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2020-04-04T22:25:47Z) - DISIR: Deep Image Segmentation with Interactive Refinement [26.087244189340858]
本稿では,空中画像のマルチクラスセグメンテーションのためのインタラクティブなアプローチを提案する。
RGBイメージとアノテーションの両方を活用するディープニューラルネットワークに基づいている。
クリックごとに約5000ピクセルが修正されます。
論文 参考訳(メタデータ) (2020-03-31T13:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。