論文の概要: Does SAM dream of EIG? Characterizing Interactive Segmenter Performance using Expected Information Gain
- arxiv url: http://arxiv.org/abs/2404.16155v1
- Date: Wed, 24 Apr 2024 19:22:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 16:02:40.925922
- Title: Does SAM dream of EIG? Characterizing Interactive Segmenter Performance using Expected Information Gain
- Title(参考訳): SAM は EIG の夢か? 期待情報を用いた対話型セグメンタの性能評価
- Authors: Kuan-I Chung, Daniel Moyer,
- Abstract要約: 本稿では,対話型セグメンテーションモデルの評価手法を提案する。
ベイズ実験設計の概念に基づいて、この手順はモデルの点のプロンプトに対する理解を測定する。
我々は、Oracle Diceインデックスの測定が、この特性の測定に無関心であるか、あるいは誤解を招くことさえ示している。
- 参考スコア(独自算出の注目度): 2.0625936401496237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an assessment procedure for interactive segmentation models. Based on concepts from Bayesian Experimental Design, the procedure measures a model's understanding of point prompts and their correspondence with the desired segmentation mask. We show that Oracle Dice index measurements are insensitive or even misleading in measuring this property. We demonstrate the use of the proposed procedure on three interactive segmentation models and subsets of two large image segmentation datasets.
- Abstract(参考訳): 本稿では,対話型セグメンテーションモデルの評価手法を提案する。
ベイズ実験設計の概念に基づいて、この手順はモデルの点プロンプトの理解と所望のセグメンテーションマスクとの対応を測定する。
我々は、Oracle Diceインデックスの測定が、この特性の測定に無関心であるか、あるいは誤解を招くことさえ示している。
本稿では,3つの対話的セグメンテーションモデルと2つの大きな画像セグメンテーションデータセットのサブセットに提案手法を適用した。
関連論文リスト
- SegPoint: Segment Any Point Cloud via Large Language Model [62.69797122055389]
我々は,多種多様なタスクにまたがるポイントワイドセグメンテーションマスクを生成するSegPointと呼ばれるモデルを提案する。
SegPointは、単一のフレームワーク内でさまざまなセグメンテーションタスクに対処する最初のモデルである。
論文 参考訳(メタデータ) (2024-07-18T17:58:03Z) - WSESeg: Introducing a Dataset for the Segmentation of Winter Sports Equipment with a Baseline for Interactive Segmentation [13.38174941551702]
冬期スポーツ機器の10種類のカテゴリを対象とした,インスタンスセグメンテーションマスクを含む新しいデータセットを提案する。
我々は、これらのデータセット上でインタラクティブなセグメンテーション実験を行い、より効率的なラベリングの可能性を探る。
論文 参考訳(メタデータ) (2024-07-12T14:20:12Z) - Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
潜在拡散モデル(LDM)は、文脈内セグメンテーションに有効な最小限のモデルである。
画像とビデオの両方のデータセットを含む、新しい、公正なコンテキスト内セグメンテーションベンチマークを構築します。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - SAM-Assisted Remote Sensing Imagery Semantic Segmentation with Object
and Boundary Constraints [9.238103649037951]
本稿では,SAM生成オブジェクト(SGO)とSAM生成境界(SGB)という2つの新しい概念を活用することにより,SAMの生出力を活用するフレームワークを提案する。
本稿では,SGOのコンテンツ特性を考慮し,セマンティックな情報を持たないセグメンテーション領域を活用するために,オブジェクト整合性の概念を導入する。
境界損失は、モデルが対象の境界情報に注意を向けることによって、SGBの特徴的な特徴に重きを置いている。
論文 参考訳(メタデータ) (2023-12-05T03:33:47Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - RefSAM: Efficiently Adapting Segmenting Anything Model for Referring Video Object Segmentation [53.4319652364256]
本稿では,ビデオオブジェクトのセグメンテーションを参照するためのSAMの可能性を探るRefSAMモデルを提案する。
提案手法は,Cross-RValModalを用いることで,モダリティ学習を向上させるためにオリジナルのSAMモデルに適応する。
我々は、言語と視覚の特徴を効果的に調整し、融合させるために、パラメータ効率のチューニング戦略を採用している。
論文 参考訳(メタデータ) (2023-07-03T13:21:58Z) - JoB-VS: Joint Brain-Vessel Segmentation in TOF-MRA Images [5.393663899194096]
本稿では,脳と血管のセグメンテーション(JoB-VS)のための最初の共同タスク学習フレームワークを提案する。
最先端の血管分割法とは異なり、我々のアプローチは脳を抽出するモデルを実装する前処理のステップを回避している。
論文 参考訳(メタデータ) (2023-04-16T10:18:24Z) - Temporal Segment Transformer for Action Segmentation [54.25103250496069]
本稿では,テキスト・セグメント・トランスフォーマ (textittemporal segment transformer) と呼ぶアテンション・ベース・アプローチを提案する。
主な考え方は、セグメントとフレームの間の注意を用いてセグメント表現を識別することであり、またセグメント間の時間的相関を捉えるためにセグメント間注意を用いる。
このアーキテクチャは,50Salads,GTEA,Breakfastのベンチマークにおいて,最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-02-25T13:05:57Z) - Joint Learning of Instance and Semantic Segmentation for Robotic
Pick-and-Place with Heavy Occlusions in Clutter [28.45734662893933]
可視・隠蔽領域マスクのインスタンスとセマンティックセグメンテーションを共同で学習する。
実験では,テストデータセット上でのインスタンスのみの学習を比較検討した。
また,2種類のロボットピック・アンド・プレイスタスクにジョイントラーニングモデルを適用した。
論文 参考訳(メタデータ) (2020-01-21T12:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。