論文の概要: Evolving, Not Training: Zero-Shot Reasoning Segmentation via Evolutionary Prompting
- arxiv url: http://arxiv.org/abs/2512.24702v1
- Date: Wed, 31 Dec 2025 08:10:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.603166
- Title: Evolving, Not Training: Zero-Shot Reasoning Segmentation via Evolutionary Prompting
- Title(参考訳): 進化的プロンプトによるゼロショット推論セグメンテーション
- Authors: Kai Ye, Xiaotong You, Jianghang Lin, Jiayi Ji, Pingyang Dai, Liujuan Cao,
- Abstract要約: 推論時間進化探索プロセスとして推論セグメントを再構成するゼロショットフレームワークEVOL-SAM3を提案する。
EVOL-SAM3は静的ベースラインを大幅に上回るだけでなく、ゼロショット設定で挑戦するReasonSegベンチマークにおいて、完全に教師された最先端メソッドをはるかに上回る。
- 参考スコア(独自算出の注目度): 44.347846669388446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning Segmentation requires models to interpret complex, context-dependent linguistic queries to achieve pixel-level localization. Current dominant approaches rely heavily on Supervised Fine-Tuning (SFT) or Reinforcement Learning (RL). However, SFT suffers from catastrophic forgetting and domain dependency, while RL is often hindered by training instability and rigid reliance on predefined reward functions. Although recent training-free methods circumvent these training burdens, they are fundamentally limited by a static inference paradigm. These methods typically rely on a single-pass "generate-then-segment" chain, which suffers from insufficient reasoning depth and lacks the capability to self-correct linguistic hallucinations or spatial misinterpretations. In this paper, we challenge these limitations and propose EVOL-SAM3, a novel zero-shot framework that reformulates reasoning segmentation as an inference-time evolutionary search process. Instead of relying on a fixed prompt, EVOL-SAM3 maintains a population of prompt hypotheses and iteratively refines them through a "Generate-Evaluate-Evolve" loop. We introduce a Visual Arena to assess prompt fitness via reference-free pairwise tournaments, and a Semantic Mutation operator to inject diversity and correct semantic errors. Furthermore, a Heterogeneous Arena module integrates geometric priors with semantic reasoning to ensure robust final selection. Extensive experiments demonstrate that EVOL-SAM3 not only substantially outperforms static baselines but also significantly surpasses fully supervised state-of-the-art methods on the challenging ReasonSeg benchmark in a zero-shot setting. The code is available at https://github.com/AHideoKuzeA/Evol-SAM3.
- Abstract(参考訳): 推論 セグメンテーションは、ピクセルレベルのローカライゼーションを達成するために、複雑な文脈に依存した言語クエリを解釈するモデルを必要とする。
現在の主流のアプローチは、スーパービジョンファインチューニング(SFT)や強化学習(RL)に大きく依存している。
しかし、SFTは破滅的な忘れとドメイン依存に悩まされる一方、RLはトレーニングの不安定性と事前定義された報酬関数への厳格な依存によってしばしば妨げられる。
最近のトレーニングフリー手法はこれらのトレーニングの負担を回避しているが、基本的に静的推論パラダイムによって制限されている。
これらの手法は典型的には、推論の深さが不十分で、自己修正された言語幻覚や空間的誤解釈の能力に欠けるシングルパスの「世代別分離」連鎖に依存している。
本稿では,これらの制約に挑戦し,推論時進化探索プロセスとしてセグメンテーションを再構成する新しいゼロショットフレームワークEVOL-SAM3を提案する。
EVOL-SAM3は、固定されたプロンプトに頼る代わりに、プロンプト仮説の集団を維持し、それらを「生成・評価・進化」ループを通じて反復的に洗練する。
本稿では,参照のないペアワイズトーナメントによる迅速なフィットネス評価を行うVisual Arenaと,多様性を注入し,意味的誤りを正すSemantic Mutation演算子を紹介する。
さらに、異種アリーナ加群は幾何学的先行と意味論的推論を統合して、堅牢な最終選択を保証する。
大規模な実験により、EVOL-SAM3は静的ベースラインを大幅に上回るだけでなく、ゼロショット設定で挑戦するReasonSegベンチマークにおいて、完全に監督された最先端メソッドをはるかに上回っていることが示されている。
コードはhttps://github.com/AHideoKuzeA/Evol-SAM3.comで公開されている。
関連論文リスト
- Learning to Evolve with Convergence Guarantee via Neural Unrolling [37.99564850768798]
両レベルのメタ最適化フレームワークであるL2E(Learning to Evolve)を導入する。
L2Eは、KM(Krasnosel'skii-Mann)固定点理論に基づくニューラルアンローリング過程として進化探索を再構成する。
実験では、高次元空間におけるL2Eのスケーラビリティと、合成および実世界の制御タスクにまたがる堅牢なゼロショット一般化が示される。
論文 参考訳(メタデータ) (2025-12-12T10:46:25Z) - ReVSeg: Incentivizing the Reasoning Chain for Video Segmentation with Reinforcement Learning [44.49803237328707]
ReVSegは、事前訓練された視覚言語モデルのネイティブインターフェースにおけるシーケンシャルな決定として推論を実行する。
我々は、多段階推論連鎖を最適化するために強化学習を採用し、モデルが結果駆動信号から判断品質を自己定義できるようにする。
論文 参考訳(メタデータ) (2025-12-02T14:44:12Z) - Lost in Tokenization: Context as the Key to Unlocking Biomolecular Understanding in Scientific LLMs [78.18336140706471]
Sci-LLMは、生物発見を加速するための有望なフロンティアとして登場した。
現在の戦略では生の生体分子配列を処理する際にSci-LLMの推論能力を制限する。
より効果的な戦略は、Sci-LLMに高レベルな構造化コンテキストを提供することである。
論文 参考訳(メタデータ) (2025-10-27T09:03:21Z) - Alignment Tipping Process: How Self-Evolution Pushes LLM Agents Off the Rails [103.05296856071931]
本稿では,自己進化型大規模言語モデル(LLM)エージェントに特有の,アライメント・ティッピング・プロセス(ATP)を同定する。
ATPは、連続的な相互作用によってエージェントが訓練中に確立されたアライメント制約を放棄し、強化された自己関心の戦略を支持するときに生じる。
実験の結果、アライメントの利点は自己進化の下で急速に低下し、最初は整合性のない状態に収束したモデルであることが判明した。
論文 参考訳(メタデータ) (2025-10-06T14:48:39Z) - Evolving Language Models without Labels: Majority Drives Selection, Novelty Promotes Variation [74.75716642635484]
大規模言語モデル(LLM)は、検証可能な報酬(RLVR)からの強化学習でますます訓練されている
本稿では,ラベルのないフレームワークEVOL-RLを提案する。
EVOL-RLは、多数派のみのベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-09-18T17:50:04Z) - RL for Reasoning by Adaptively Revealing Rationales [36.50924054394857]
監督された微調整(SFT)は密度の高い地下構造ラベルに依存しており、シーケンスの長さが大きくなるにつれてコストが増大する。
AdaBack(アダプティブ・バックトラック)は,学習中の目標出力の部分的なプレフィックスのみを明らかにする,サンプルごとのカリキュラム学習アルゴリズムである。
部分解に対する適応的なカリキュラムは、そうでなければ難解な問題を確実に解決することを示します。
論文 参考訳(メタデータ) (2025-06-22T17:46:14Z) - Scalable Reinforcement Post-Training Beyond Static Human Prompts: Evolving Alignment via Asymmetric Self-Play [52.3079697845254]
evaは、オフラインとオンラインのRLポストトレーニングの両方で、言語モデルがトレーニングプロンプトを適応的に作成できるようにする最初の方法である。
我々は,エバが有効なRLキュリキュラを作成でき,アブレーションにまたがって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-10-31T08:15:32Z) - Diffusing States and Matching Scores: A New Framework for Imitation Learning [16.941612670582522]
敵対的模倣学習は伝統的に、学習者と敵対的に選択されたコスト関数の間の2つのプレイヤーゼロサムゲームとしてフレーム化されている。
拡散モデルは、回帰を通じてスコア関数を訓練することだけを必要とするGANの非敵対的な代替品として登場した。
提案手法は, GANスタイルの模倣学習ベースラインと差別化なし模倣学習ベースラインの両方を, 連続制御問題に比較して優れていることを示す。
論文 参考訳(メタデータ) (2024-10-17T17:59:25Z) - Test-Time Training for Semantic Segmentation with Output Contrastive
Loss [12.535720010867538]
ディープラーニングベースのセグメンテーションモデルは、公開ベンチマークで印象的なパフォーマンスを達成したが、目に見えない環境にうまく一般化することは、依然として大きな課題である。
本稿では、適応過程を安定させるために、頑健で一般化された表現を学習する能力で知られるコントラストロス(OCL)を紹介する。
本手法は,テスト領域データに対するドメイン適応法を用いて事前学習したモデルに適用した場合においても優れ,そのレジリエンスと適応性を示す。
論文 参考訳(メタデータ) (2023-11-14T03:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。