論文の概要: Enhancing Self-Driving Segmentation in Adverse Weather Conditions: A Dual Uncertainty-Aware Training Approach to SAM Optimization
- arxiv url: http://arxiv.org/abs/2509.04735v1
- Date: Fri, 05 Sep 2025 01:24:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.44258
- Title: Enhancing Self-Driving Segmentation in Adverse Weather Conditions: A Dual Uncertainty-Aware Training Approach to SAM Optimization
- Title(参考訳): 逆気象条件下での自動運転セグメンテーションの強化:SAM最適化のための二重不確実性を考慮した訓練手法
- Authors: Dharsan Ravindran, Kevin Wang, Zhuoyuan Cao, Saleh Abdelrahman, Jeffery Wu,
- Abstract要約: 自律運転におけるセグメンテーションの堅牢性を高めるための2つの手法について検討する。
まず,不確実性指標を直接損失関数に組み込むSAM2の多段階微調整手法を提案する。
第2に、医用画像セグメンテーション用に設計されたUncertainty-Aware Adapter (UAT) を駆動コンテキストに適用する。
- 参考スコア(独自算出の注目度): 2.784110090047074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in vision foundation models, such as the Segment Anything Model (SAM) and its successor SAM2, have achieved state-of-the-art performance on general image segmentation benchmarks. However, these models struggle in adverse weather conditions where visual ambiguity is high, largely due to their lack of uncertainty quantification. Inspired by progress in medical imaging, where uncertainty-aware training has improved reliability in ambiguous cases, we investigate two approaches to enhance segmentation robustness for autonomous driving. First, we introduce a multi-step finetuning procedure for SAM2 that incorporates uncertainty metrics directly into the loss function, improving overall scene recognition. Second, we adapt the Uncertainty-Aware Adapter (UAT), originally designed for medical image segmentation, to driving contexts. We evaluate both methods on CamVid, BDD100K, and GTA driving datasets. Experiments show that UAT-SAM outperforms standard SAM in extreme weather, while SAM2 with uncertainty-aware loss achieves improved performance across diverse driving scenes. These findings underscore the value of explicit uncertainty modeling for safety-critical autonomous driving in challenging environments.
- Abstract(参考訳): SAM(Segment Anything Model)やSAM2(Segment Anything Model)などのビジョン基盤モデルの最近の進歩は、一般的な画像セグメンテーションベンチマークで最先端のパフォーマンスを実現している。
しかし、これらのモデルは、視覚的あいまいさが高い悪天候環境では、主に不確実な定量化の欠如のために苦労する。
不確実性認識訓練が不明瞭な症例の信頼性を向上させる医療画像の進歩に触発されて、自律運転におけるセグメンテーションロバスト性を高めるための2つのアプローチを検討した。
まず,不確実性指標を直接損失関数に組み込んだSAM2の多段階微調整手法を提案する。
第2に、医用画像セグメンテーション用に設計されたUncertainty-Aware Adapter (UAT) を駆動コンテキストに適用する。
我々は、CamVid、BDD100K、GTA駆動データセット上で両方の手法を評価する。
実験により、UAT-SAMは極端天候下で標準SAMより優れており、SAM2は不確実性を認識しないため、様々な運転シーンで性能が向上することが示された。
これらの知見は、挑戦環境における安全クリティカルな自律運転における明確な不確実性モデリングの価値を浮き彫りにした。
関連論文リスト
- Every SAM Drop Counts: Embracing Semantic Priors for Multi-Modality Image Fusion and Beyond [52.486290612938895]
本稿では,Segment Anything Model (SAM) のセグメンテーションモデルからのセグメンテーション知識を利用して,融合結果の質を向上し,下流タスク適応性を実現する手法を提案する。
具体的には、SAMから高レベルなセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・アテンション(SPA)モジュールを抽出し、永続リポジトリを介してソース情報を効率的に保持する。
本手法は,実運用効率を維持しつつ,高品質な視覚結果と下流タスク適応性のバランスを実現する。
論文 参考訳(メタデータ) (2025-03-03T06:16:31Z) - RFMedSAM 2: Automatic Prompt Refinement for Enhanced Volumetric Medical Image Segmentation with SAM 2 [15.50695315680438]
Segment Anything Model 2 (SAM2)は、SAMを画像ドメインとビデオドメインの両方に拡張するプロンプト駆動基盤モデルである。
しかしSAMと同様、SAM 2はバイナリマスクの出力、セマンティックラベルの推論ができないこと、ターゲットのオブジェクト領域の正確なプロンプトへの依存によって制限されている。
我々は、カスタムの微調整アダプタを用いてSAM 2の上限値について検討し、BTCVデータセット上で92.30%のDice similarity Coefficient(DSC)を達成する。
論文 参考訳(メタデータ) (2025-02-04T22:03:23Z) - Inspiring the Next Generation of Segment Anything Models: Comprehensively Evaluate SAM and SAM 2 with Diverse Prompts Towards Context-Dependent Concepts under Different Scenes [97.8612925017964]
何十億ものイメージに基づいてトレーニングされた大規模な基礎モデル - マスクペアは、シーン、オブジェクト、コンテキストの幅広い多様性をカバーする。
SAM2とそのアップグレード版SAM2はコンピュータビジョンの複数の分野に大きな影響を与えた。
自然, 医療, 産業のシーンにおいて, 11枚のCDのコンセプトを2次元, 3次元画像, ビデオで徹底的に評価する。
論文 参考訳(メタデータ) (2024-12-02T08:03:56Z) - Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
異常セグメンテーションのための textbfSelf-textbfPerceptinon textbfTuning (textbfSPT) 法を提案する。
SPT法は, 自己描画型チューニング戦略を取り入れ, 異常マスクの初期粗いドラフトを生成し, 精製処理を行う。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - SAMURAI: Adapting Segment Anything Model for Zero-Shot Visual Tracking with Motion-Aware Memory [23.547018300192065]
本稿では,視覚的物体追跡に特化して設計されたSAM 2を改良したSAmuraiを紹介する。
提案した動き認識メモリ選択機構に時間的動作手がかりを組み込むことで、物体の動きを効果的に予測し、マスク選択を洗練し、トレーニングや微調整を必要とせず、堅牢で正確なトラッキングを実現する。
評価では、既存のトラッカーよりも成功率と精度が大幅に向上し、LaSOT$_ext$で7.1%、GOT-10kで3.5%向上した。
論文 参考訳(メタデータ) (2024-11-18T05:59:03Z) - SAM 2 in Robotic Surgery: An Empirical Evaluation for Robustness and Generalization in Surgical Video Segmentation [13.609341065893739]
本研究では,ロボット支援手術におけるSAM2のゼロショットセグメンテーション性能について,プロンプトに基づく検討を行った。
1点とバウンディングボックスの2種類のプロンプトを使用し、ビデオシーケンスでは1点プロンプトを初期フレームに適用する。
ポイントプロンプトによる結果はSAMの能力よりも大幅に向上し、既存の未進展SOTAメソッドに近づいたり超えたりしている。
論文 参考訳(メタデータ) (2024-08-08T17:08:57Z) - Robustness of Segment Anything Model (SAM) for Autonomous Driving in
Adverse Weather Conditions [9.613468602635082]
Segment Anything Model (SAM) はコンピュータビジョンの基礎モデルとして登場した。
SAMを自律運転に適用して視覚タスクの性能向上を図りたいという願望が強くある。
本研究は,自動運転ビジョンタスクに統合する前に,課題シナリオにおけるSAMの堅牢性を理解することを目的としている。
論文 参考訳(メタデータ) (2023-06-23T04:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。