論文の概要: Towards Integrating Uncertainty for Domain-Agnostic Segmentation
- arxiv url: http://arxiv.org/abs/2512.23427v1
- Date: Mon, 29 Dec 2025 12:46:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.497763
- Title: Towards Integrating Uncertainty for Domain-Agnostic Segmentation
- Title(参考訳): ドメインに依存しないセグメンテーションのための不確実性の統合に向けて
- Authors: Jesse Brouwers, Xiaoyan Xing, Alexander Timans,
- Abstract要約: Segment Anything Model (SAM) ファミリーのようなセグメンテーションの基本モデルは、ゼロショット性能が強いが、シフトまたは限定知識領域では弱いままである。
本研究は、定量化の不確実性がそのような課題を緩和し、ドメインに依存しない方法でモデル一般化可能性を高めることができるかどうかを考察する。
- 参考スコア(独自算出の注目度): 44.239195075597536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models for segmentation such as the Segment Anything Model (SAM) family exhibit strong zero-shot performance, but remain vulnerable in shifted or limited-knowledge domains. This work investigates whether uncertainty quantification can mitigate such challenges and enhance model generalisability in a domain-agnostic manner. To this end, we (1) curate UncertSAM, a benchmark comprising eight datasets designed to stress-test SAM under challenging segmentation conditions including shadows, transparency, and camouflage; (2) evaluate a suite of lightweight, post-hoc uncertainty estimation methods; and (3) assess a preliminary uncertainty-guided prediction refinement step. Among evaluated approaches, a last-layer Laplace approximation yields uncertainty estimates that correlate well with segmentation errors, indicating a meaningful signal. While refinement benefits are preliminary, our findings underscore the potential of incorporating uncertainty into segmentation models to support robust, domain-agnostic performance. Our benchmark and code are made publicly available.
- Abstract(参考訳): Segment Anything Model (SAM) ファミリーのようなセグメンテーションの基本モデルは、ゼロショット性能が強いが、シフトまたは限定知識領域では弱いままである。
本研究では、不確実な定量化がそのような課題を緩和し、ドメインに依存しない方法でモデル一般化可能性を高めることができるかどうかを検討する。
この目的のために,(1)シャドー,透過性,カモフラージュといった課題のあるセグメンテーション条件下でSAMをストレステストする8つのデータセットからなるベンチマークであるUncertSAMをキュレートする。
評価されたアプローチの中で、ラプラス近似は、意味のある信号を示すセグメンテーション誤差とよく相関する不確実性推定をもたらす。
改善の利点は予備的なものであるが、我々は、堅牢でドメインに依存しないパフォーマンスをサポートするためにセグメンテーションモデルに不確実性を導入する可能性を強調している。
私たちのベンチマークとコードは公開されています。
関連論文リスト
- Benchmarking Corruption Robustness of LVLMs: A Discriminative Benchmark and Robustness Alignment Metric [49.393713730706445]
汚損の堅牢性を評価するための識別サンプルを強調したベンチマークであるBench-Cを紹介する。
本稿では,ロバストネスアライメントスコア(RAS)を提案する。
論文 参考訳(メタデータ) (2025-11-24T12:07:56Z) - Open-Set LiDAR Panoptic Segmentation Guided by Uncertainty-Aware Learning [17.188627352236782]
我々は不確実性誘導型オープンセット・パノプティクス・セグメンテーション・フレームワークであるULOPSを提案する。
我々のアーキテクチャは、不確実性推定を伴うセマンティックセグメンテーションのための分離されたデコーダを組み込んでいる。
推論中、未知のインスタンスを識別および分割するために不確実性推定を利用する。
論文 参考訳(メタデータ) (2025-06-16T09:03:51Z) - Post-hoc Probabilistic Vision-Language Models [54.05237186168399]
視覚言語モデル(VLM)は、分類、検索、生成タスクにおいて顕著な成功を収めている。
追加トレーニングを必要としないVLMにおけるポストホック不確実性評価を提案する。
この結果から,大規模モデルの安全性クリティカルな応用が期待できることがわかった。
論文 参考訳(メタデータ) (2024-12-08T18:16:13Z) - Uncertainty Estimation in Instance Segmentation with Star-convex Shapes [4.197316670989004]
ディープニューラルネットワークベースのアルゴリズムは、しばしば不確実な信頼レベルを持つ誤った予測を示す。
本研究は,星形インスタンスの位置で空間的確実性を推定することの課題に対処する。
本研究は、個別の確実性スコアに対する分数的確実性推定を組み合わせることが効果的な戦略であることを示す。
論文 参考訳(メタデータ) (2023-09-19T10:49:33Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Towards Reliable Medical Image Segmentation by Modeling Evidential Calibrated Uncertainty [57.023423137202485]
医用画像のセグメンテーションの信頼性に関する懸念が臨床医の間で続いている。
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を活用することで、医用画像分割の確率と不確実性を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Probabilistic Deep Learning for Instance Segmentation [9.62543698736491]
提案手法は,提案不要なインスタンスセグメンテーションモデルにおけるモデル独立不確実性推定値を得るための汎用的な手法である。
本手法は,BBBC010 C. elegansデータセットを用いて評価し,競合性能を示す。
論文 参考訳(メタデータ) (2020-08-24T19:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。