論文の概要: Causal Prompt Calibration Guided Segment Anything Model for Open-Vocabulary Multi-Entity Segmentation
- arxiv url: http://arxiv.org/abs/2505.06524v1
- Date: Sat, 10 May 2025 05:55:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.885998
- Title: Causal Prompt Calibration Guided Segment Anything Model for Open-Vocabulary Multi-Entity Segmentation
- Title(参考訳): 開語彙多要素セグメンテーションのための因果確率校正誘導セグメンテーションモデル
- Authors: Jingyao Wang, Jianqi Zhang, Wenwen Qiang, Changwen Zheng,
- Abstract要約: Segment Anything Model (SAM) は、オープン語彙多元性セグメンテーション(OVMS)における一般化問題に苦慮している
我々は,正確なOVMSを実現するために,SAMの因果プロンプト法であるCPC-SAMを提案する。
- 参考スコア(独自算出の注目度): 11.735101142178477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the strength of the Segment Anything Model (SAM), it struggles with generalization issues in open-vocabulary multi-entity segmentation (OVMS). Through empirical and causal analyses, we find that (i) the prompt bias is the primary cause of the generalization issues; (ii) this bias is closely tied to the task-irrelevant generating factors within the prompts, which act as confounders and affect generalization. To address the generalization issues, we aim to propose a method that can calibrate prompts to eliminate confounders for accurate OVMS. Building upon the causal analysis, we propose that the optimal prompt for OVMS should contain only task-relevant causal factors. We define it as the causal prompt, serving as the goal of calibration. Next, our theoretical analysis, grounded by causal multi-distribution consistency theory, proves that this prompt can be obtained by enforcing segmentation consistency and optimality. Inspired by this, we propose CPC-SAM, a Causal Prompt Calibration method for SAM to achieve accurate OVMS. It integrates a lightweight causal prompt learner (CaPL) into SAM to obtain causal prompts. Specifically, we first generate multiple prompts using random annotations to simulate diverse distributions and then reweight them via CaPL by enforcing causal multi-distribution consistency in both task and entity levels. To ensure obtaining causal prompts, CaPL is optimized by minimizing the cumulative segmentation loss across the reweighted prompts to achieve consistency and optimality. A bi-level optimization strategy alternates between optimizing CaPL and SAM, ensuring accurate OVMS. Extensive experiments validate its superiority.
- Abstract(参考訳): Segment Anything Model (SAM) の強みにもかかわらず、オープン語彙多元性セグメンテーション(OVMS)における一般化問題に苦慮している。
経験的・因果的分析によって
i) 急進バイアスが一般化問題の主因である。
(i)このバイアスは、共同創設者として機能し、一般化に影響を与えるプロンプト内のタスク非関連生成要因と密接に結びついている。
一般化問題に対処するため,我々は,OVMSの正確な共同設立者を排除するために,プロンプトを校正する手法を提案する。
因果解析に基づいて、OVMSの最適プロンプトはタスク関連因果要因のみを含むべきである。
我々はこれを因果的プロンプトとして定義し、校正の目的として機能する。
次に、因果多分布整合理論を基礎とした理論解析により、このプロンプトは分節整合と最適性を強制することによって得られることを証明した。
そこで我々は, SAM の因果検定法である CPC-SAM を提案し, 正確な OVMS を実現する。
軽量な因果的プロンプト学習器(CaPL)をSAMに統合し、因果的プロンプトを得る。
具体的には、まずランダムアノテーションを用いて複数のプロンプトを生成し、多様な分布をシミュレートした後、タスクレベルとエンティティレベルの因果多分布一貫性を強制することにより、CaPLを介してそれらを再重み付けする。
因果的プロンプトを確保するために、CaPLは再重み付けされたプロンプトの累積的セグメンテーション損失を最小限に抑え、一貫性と最適性を達成することで最適化される。
双方向最適化戦略は、CaPLとSAMの最適化を交互に行い、正確なOVMSを保証する。
大規模な実験は、その優位性を検証する。
関連論文リスト
- Diversified Sampling Improves Scaling LLM inference [31.18762591875725]
DivSamplingは、候補解の多様性を高めるために設計された、斬新で多用途なサンプリング技術である。
理論解析により, 微妙な仮定の下では, 種々のプロンプトから発生する応答の誤り率は, 定常プロンプトによる応答よりも有意に低いことが示された。
論文 参考訳(メタデータ) (2025-02-16T07:37:58Z) - Prompting Strategies for Enabling Large Language Models to Infer Causation from Correlation [68.58373854950294]
我々は因果推論に焦点をあて,相関情報に基づく因果関係の確立という課題に対処する。
この問題に対して,元のタスクを固定的なサブクエストに分割するプロンプト戦略を導入する。
既存の因果ベンチマークであるCorr2Causeに対するアプローチを評価した。
論文 参考訳(メタデータ) (2024-12-18T15:32:27Z) - Instance-adaptive Zero-shot Chain-of-Thought Prompting [32.700073951068575]
Zero-shot Chain-of-Thought (CoT) は,実世界の推論タスクにおける大規模言語モデル(LLM)の性能向上のための,シンプルかつ効果的な戦略として出現する。
この研究は、良いプロンプトと悪いプロンプトを適応的に微分することで、代替のゼロショットCoT推論スキームとして、インスタンス適応プロンプトアルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-09-30T16:00:34Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - On sample complexity of conditional independence testing with Von Mises
estimator with application to causal discovery [21.12645737093305]
条件付き独立テストは制約に基づく因果探索アルゴリズムにおいて不可欠なステップである。
我々は、最適パラメトリックレートを達成するVM-CIと呼ばれる推定器に基づいて、条件独立性の試験を設計する。
VM-CIは、時間またはサンプルの複雑さの観点から、他の一般的なCIテストよりも優れていることを実証的に示します。
論文 参考訳(メタデータ) (2023-10-20T14:52:25Z) - Model-based causal feature selection for general response types [8.228587135343071]
Invariant causal prediction (ICP) は、不均一な設定からのデータを必要とする因果的特徴選択の手法である。
我々は変換モデル(TRAM)ベースのICPを開発し、連続的、分類的、カウント型、非形式的に検閲された応答を可能にする。
我々は、オープンソースのRパッケージ「tramicp」を提供し、シミュレーションデータに対する我々のアプローチを評価し、重篤な患者の生存の因果的特徴を調査する事例研究を行った。
論文 参考訳(メタデータ) (2023-09-22T12:42:48Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。