論文の概要: ClickAttention: Click Region Similarity Guided Interactive Segmentation
- arxiv url: http://arxiv.org/abs/2408.06021v1
- Date: Mon, 12 Aug 2024 09:21:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 14:25:27.709696
- Title: ClickAttention: Click Region Similarity Guided Interactive Segmentation
- Title(参考訳): ClickAttention: Click Region similarity Guided Interactive Segmentation
- Authors: Long Xu, Shanghong Li, Yongquan Chen, Junkang Chen, Rui Huang, Feng Wu,
- Abstract要約: 本稿では、正クリック領域と全入力との類似性に基づいて、正クリックの影響範囲を拡大するクリックアテンションアルゴリズムを提案する。
また、正と負のクリック領域間の注意結合を低減するために、識別親和性損失を提案する。
大規模な実験により,本手法は既存手法よりも優れ,より少ないパラメータで最先端性能を実現することが示された。
- 参考スコア(独自算出の注目度): 35.927434229629554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interactive segmentation algorithms based on click points have garnered significant attention from researchers in recent years.However, existing studies typically use sparse click maps as model inputs to segment specific target objects, which primarily affect local regions and have limited abilities to focus on the whole target object, leading to increased times of clicks.In addition, most existing algorithms can not balance well between high performance and efficiency.To address this issue, we propose a click attention algorithm that expands the influence range of positive clicks based on the similarity between positively-clicked regions and the whole input.We also propose a discriminative affinity loss to reduce the attention coupling between positive and negative click regions to avoid an accuracy decrease caused by mutual interference between positive and negative clicks.Extensive experiments demonstrate that our approach is superior to existing methods and achieves cutting-edge performance in fewer parameters.An interactive demo and all reproducible codes will be released at https://github.com/hahamyt/ClickAttention.
- Abstract(参考訳): クリックポイントに基づく対話的セグメンテーションアルゴリズムは近年,研究者から大きな注目を集めている。しかしながら,既存の研究では,主に局所領域に影響を及ぼし,対象対象対象全体に集中する能力に制限があるような,モデル入力としてスパース・クリックマップを用いることが多い。また,ほとんどの既存アルゴリズムは,高いパフォーマンスと効率のバランスが取れない。この問題に対処するために,正クリック領域と全入力の類似性に基づく正クリックの影響範囲を拡大するクリックアテンションアルゴリズムを提案する。また,正クリック領域と負クリック領域間の相互干渉による精度の低下を回避するために,正クリック領域と負クリック領域とのカップリングを回避するための識別的アフィニティ・ロスも提案している。
関連論文リスト
- RClicks: Realistic Click Simulation for Benchmarking Interactive Segmentation [37.44155289954746]
対話型セグメンテーションシナリオにおけるクリックパターンの大規模クラウドソーシング調査を行い,475万のリアルタイムクリックを収集する。
本モデルとデータセットを用いて,現実的なクリックにおける既存の対話的セグメンテーション手法の包括的比較のためのRClicksベンチマークを提案する。
我々のベンチマークによると、実世界の対話型セグメンテーションモデルでは、ベースラインベンチマークで報告されたよりもパフォーマンスが悪く、ほとんどの手法は堅牢ではない。
論文 参考訳(メタデータ) (2024-10-15T15:55:00Z) - Scale Disparity of Instances in Interactive Point Cloud Segmentation [15.865365305312174]
我々はClickFormerを提案する。ClickFormerは革新的なインタラクティブなポイントクラウドセグメンテーションモデルで、物と物の両方のインスタンスを正確にセグメンテーションする。
我々は、偽陽性の発生リスクを軽減するために、クエリ・ボクセル変換器にグローバルな注意を払っている。
ClickFormerは、屋内と屋外の両方のデータセットで、既存のインタラクティブなポイントクラウドセグメンテーションメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-19T03:45:48Z) - Clicks2Line: Using Lines for Interactive Image Segmentation [16.02193274044797]
入力としてクリックや行を適応的に採用する対話型セグメンテーションアルゴリズムを提案する。
実験により,いくつかのケースにおいて,行を使用するとクリックよりもセグメンテーション結果が良くなることが示された。
論文 参考訳(メタデータ) (2024-04-29T06:44:33Z) - TETRIS: Towards Exploring the Robustness of Interactive Segmentation [39.1981941213761]
対話型セグメンテーションモデルに対するホワイトボックス逆攻撃において, 直接最適化により極端なユーザ入力を見つける手法を提案する。
本報告では,多数のモデルについて広範囲な評価を行った結果について報告する。
論文 参考訳(メタデータ) (2024-02-09T01:36:21Z) - CorrMatch: Label Propagation via Correlation Matching for
Semi-Supervised Semantic Segmentation [73.89509052503222]
本稿では、CorrMatchと呼ばれる、単純だが実行可能な半教師付きセマンティックセマンティックセマンティックセマンティクス手法を提案する。
相関写像は、同一カテゴリのクラスタリングピクセルを容易に実現できるだけでなく、良好な形状情報も含んでいることを観察する。
我々は,高信頼画素を拡大し,さらに掘り出すために,画素の対の類似性をモデル化して画素伝搬を行う。
そして、相関地図から抽出した正確なクラス非依存マスクを用いて、領域伝搬を行い、擬似ラベルを強化する。
論文 参考訳(メタデータ) (2023-06-07T10:02:29Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Clicking Matters:Towards Interactive Human Parsing [60.35351491254932]
この研究は、対話的な環境下での人間の解析課題に取り組む最初の試みである。
ベンチマークLIPでは85% mIoU,PASCAL-Person-Partでは80% mIoU,Helenでは75% mIoU,クラス毎のクリック数は1.95,3.02,2.84,1.09であった。
論文 参考訳(メタデータ) (2021-11-11T11:47:53Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - FAIRS -- Soft Focus Generator and Attention for Robust Object
Segmentation from Extreme Points [70.65563691392987]
本稿では,ユーザ入力からオブジェクトのセグメンテーションを極端点と補正クリックの形で生成する手法を提案する。
提案手法は,エクストリームポイント,クリック誘導,修正クリックを原則として組み込んだ,高品質なトレーニングデータを生成する能力とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2020-04-04T22:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。