論文の概要: Clicks2Line: Using Lines for Interactive Image Segmentation
- arxiv url: http://arxiv.org/abs/2404.18461v1
- Date: Mon, 29 Apr 2024 06:44:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 14:36:46.007368
- Title: Clicks2Line: Using Lines for Interactive Image Segmentation
- Title(参考訳): Clicks2Line: インタラクティブなイメージセグメンテーションに行を使用する
- Authors: Chaewon Lee, Chang-Su Kim,
- Abstract要約: 入力としてクリックや行を適応的に採用する対話型セグメンテーションアルゴリズムを提案する。
実験により,いくつかのケースにおいて,行を使用するとクリックよりもセグメンテーション結果が良くなることが示された。
- 参考スコア(独自算出の注目度): 16.02193274044797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For click-based interactive segmentation methods, reducing the number of clicks required to obtain a desired segmentation result is essential. Although recent click-based methods yield decent segmentation results, we observe that substantial amount of clicks are required to segment elongated regions. To reduce the amount of user-effort required, we propose using lines instead of clicks for such cases. In this paper, an interactive segmentation algorithm which adaptively adopts either clicks or lines as input is proposed. Experimental results demonstrate that using lines can generate better segmentation results than clicks for several cases.
- Abstract(参考訳): クリックベースのインタラクティブセグメンテーション法では、所望のセグメンテーション結果を得るために必要なクリック数を減らすことが不可欠である。
近年のクリックベース手法は, セグメンテーションの精度は高いが, 長い領域をセグメンテーションするためには, かなりの量のクリックが必要であることが観察された。
ユーザ満足度を減らすために,このような場合のクリックの代わりに行を使用する方法を提案する。
本稿では,入力としてクリックや行を適応的に採用する対話型セグメンテーションアルゴリズムを提案する。
実験により,いくつかのケースにおいて,行を使用するとクリックよりもセグメンテーション結果が良くなることが示された。
関連論文リスト
- RClicks: Realistic Click Simulation for Benchmarking Interactive Segmentation [37.44155289954746]
対話型セグメンテーションシナリオにおけるクリックパターンの大規模クラウドソーシング調査を行い,475万のリアルタイムクリックを収集する。
本モデルとデータセットを用いて,現実的なクリックにおける既存の対話的セグメンテーション手法の包括的比較のためのRClicksベンチマークを提案する。
我々のベンチマークによると、実世界の対話型セグメンテーションモデルでは、ベースラインベンチマークで報告されたよりもパフォーマンスが悪く、ほとんどの手法は堅牢ではない。
論文 参考訳(メタデータ) (2024-10-15T15:55:00Z) - ClickAttention: Click Region Similarity Guided Interactive Segmentation [35.927434229629554]
本稿では、正クリック領域と全入力との類似性に基づいて、正クリックの影響範囲を拡大するクリックアテンションアルゴリズムを提案する。
提案手法は既存手法よりも優れ,パラメータの少ない最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T09:21:15Z) - SimpSON: Simplifying Photo Cleanup with Single-Click Distracting Object
Segmentation Network [70.89436857471887]
ワンクリックでタスクを遂行するために最適化された対話型トラクタ選択法を提案する。
本手法は従来の単視分割法により達成された精度とリコールを超越した手法である。
実験により, 未知の物体を対話的に, グループで効果的に, 正確に識別できることが実証された。
論文 参考訳(メタデータ) (2023-05-28T04:05:24Z) - PiClick: Picking the desired mask from multiple candidates in click-based interactive segmentation [46.47175674533545]
クリックベースのインタラクティブセグメンテーションは、人間のクリックによってターゲットマスクを生成することを目的としている。
そのようなタスクでは、目的の曖昧さはセグメンテーションの精度と効率を妨げる問題のままである。
そこで我々は,PiClickという対話型セグメンテーションネットワークを提案し,ユーザにとって最も有効なマスクを提案する。
論文 参考訳(メタデータ) (2023-04-23T10:46:16Z) - DynaMITe: Dynamic Query Bootstrapping for Multi-object Interactive
Segmentation Transformer [58.95404214273222]
最先端のインスタンスセグメンテーション手法の多くは、訓練のために大量のピクセル精度のグランドトルースに依存している。
ユーザインタラクションを時間的クエリとして表現するDynaMITeという,より効率的なアプローチを導入する。
我々のアーキテクチャはまた、改善中にイメージ機能を再計算する必要をなくし、単一のイメージに複数のインスタンスをセグメント化するためのインタラクションを少なくする。
論文 参考訳(メタデータ) (2023-04-13T16:57:02Z) - Contour-based Interactive Segmentation [4.164728134421114]
ユーザインタラクションの自然な形態をゆるい輪郭とみなし、輪郭に基づく対話的セグメンテーション手法を導入する。
一つの輪郭が複数のクリックと同じ精度で、ユーザインタラクションの必要量を減らすことを実証する。
論文 参考訳(メタデータ) (2023-02-13T13:35:26Z) - PseudoClick: Interactive Image Segmentation with Click Imitation [32.84573259701633]
提案するPseudoClickは,既存のセグメンテーションネットワークが候補クリックを提案できる汎用フレームワークである。
これらの自動生成されたクリックは、この作品で擬似クリックと呼ばれ、人間のクリックの模倣として機能し、セグメンテーションマスクを洗練する。
論文 参考訳(メタデータ) (2022-07-12T03:36:20Z) - UCP-Net: Unstructured Contour Points for Instance Segmentation [2.105564340986074]
本稿では,初期セグメンテーションとセグメンテーションの洗練のために,制約のない輪郭クリックに基づく対話型セグメンテーションを提案する。
本手法は分類に依存しず,一般的なセグメンテーションデータセットの最先端手法よりもユーザインタラクションの少ない精度のセグメンテーションマスク(IoU > 85%)を生成する。
論文 参考訳(メタデータ) (2021-09-15T22:03:37Z) - WeClick: Weakly-Supervised Video Semantic Segmentation with Click
Annotations [64.52412111417019]
WeClick と呼ばれるクリックアノテーション付きビデオセマンティックセマンティックセマンティックパイプラインを提案する。
詳細なセマンティック情報はクリックによってキャプチャされないため、クリックラベルによる直接トレーニングはセグメンテーションの予測が不十分になる。
WeClickは最先端の手法より優れ、ベースラインよりも10.24%のmIoUで性能を向上し、リアルタイム実行を実現している。
論文 参考訳(メタデータ) (2021-07-07T09:12:46Z) - VideoClick: Video Object Segmentation with a Single Click [93.7733828038616]
ビデオ中の各オブジェクトに対して1クリックずつのボトムアップアプローチを提案し,全ビデオ中の各オブジェクトのセグメンテーションマスクを取得する。
特に、対象フレーム内の各ピクセルを基準フレーム内のオブジェクトまたは背景のいずれかに割り当てる相関ボリュームを構築します。
この新しいCityscapesVideoデータセットの結果から、この困難な環境では、私たちのアプローチがすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2021-01-16T23:07:48Z) - FAIRS -- Soft Focus Generator and Attention for Robust Object
Segmentation from Extreme Points [70.65563691392987]
本稿では,ユーザ入力からオブジェクトのセグメンテーションを極端点と補正クリックの形で生成する手法を提案する。
提案手法は,エクストリームポイント,クリック誘導,修正クリックを原則として組み込んだ,高品質なトレーニングデータを生成する能力とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2020-04-04T22:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。