論文の概要: CRAUM-Net: Contextual Recursive Attention with Uncertainty Modeling for Salient Object Detection
- arxiv url: http://arxiv.org/abs/2006.08453v5
- Date: Sat, 27 Sep 2025 12:03:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:19.275883
- Title: CRAUM-Net: Contextual Recursive Attention with Uncertainty Modeling for Salient Object Detection
- Title(参考訳): CRAUM-Net:有能な物体検出のための不確実性モデリングによる文脈再帰的注意
- Authors: Abhinav Sagar,
- Abstract要約: マルチスケールのコンテキストアグリゲーション、高度な注意機構、SOD性能向上のための不確実性認識モジュールを統合した新しいフレームワークを提案する。
我々の適応的クロススケールコンテキストモジュールは、再帰的チャネル空間的注意と畳み込みブロック注意を利用して、機能を複数のレベルから効果的に融合する。
ネットワークを堅牢にトレーニングするために,境界感応性とトポロジカル保存損失関数(Boundary IoU,Focal Tversky,Topological Saliency Los)を組み合わせて,ネットワークの信頼性を高める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Salient Object Detection (SOD) plays a crucial role in many computer vision applications, requiring accurate localization and precise boundary delineation of salient regions. In this work, we present a novel framework that integrates multi-scale context aggregation, advanced attention mechanisms, and an uncertainty-aware module for improved SOD performance. Our Adaptive Cross-Scale Context Module effectively fuses features from multiple levels, leveraging Recursive Channel Spatial Attention and Convolutional Block Attention to enhance salient feature representation. We further introduce an edge-aware decoder that incorporates a dedicated Edge Extractor for boundary refinement, complemented by Monte Carlo Dropout to estimate uncertainty in predictions. To train our network robustly, we employ a combination of boundary-sensitive and topology-preserving loss functions, including Boundary IoU, Focal Tversky, and Topological Saliency losses. Evaluation metrics such as uncertainty-calibrated error and Boundary F1 score, along with the standard SOD metrics, demonstrate our method's superior ability to produce accurate and reliable saliency maps. Extensive experiments validate the effectiveness of our approach in capturing fine-grained details while quantifying prediction confidence, advancing the state-of-the-art in salient object detection.
- Abstract(参考訳): サリアント物体検出(SOD)は、多くのコンピュータビジョンアプリケーションにおいて重要な役割を担い、サリアント領域の正確な位置決めと正確なバウンダリデラインを必要とする。
本研究では,SOD性能向上のためのマルチスケールコンテキストアグリゲーション,高度な注意機構,不確実性認識モジュールを統合した新しいフレームワークを提案する。
我々の適応的クロススケールコンテキストモジュールは、再帰的チャネル空間注意と畳み込みブロック注意を利用して、有能な特徴表現を強化することで、複数のレベルから機能を効果的に融合する。
さらに,境界修正のためのエッジエクストラクタを内蔵したエッジ対応デコーダを導入し,予測の不確実性を推定するためにモンテカルロ・ドロップアウトを補完する。
ネットワークを堅牢にトレーニングするために,境界感応性とトポロジカル保存損失関数(Boundary IoU,Focal Tversky,Topological Saliency Los)を組み合わせて,ネットワークの信頼性を高める。
不確実性校正誤差や境界F1スコアなどの評価指標は、標準SOD指標とともに、正確で信頼性の高いサリエンシマップを作成する上で、我々の方法が優れていることを示す。
広範囲な実験により,予測信頼度を定量化しながら細かな細部を捉える手法の有効性を検証し,有能な物体検出における最先端の手法を推し進めた。
関連論文リスト
- BALI: Learning Neural Networks via Bayesian Layerwise Inference [6.7819070167076045]
我々はベイズニューラルネットワークを学習し,それを多変量ベイズ線形回帰モデルのスタックとして扱う新しい手法を提案する。
主なアイデアは、各レイヤの目標出力を正確に知っていれば、階層的に後方に推論することである。
これらの擬似ターゲットをフォワードパスから出力する層として定義し、対象関数のバックプロパゲーションによって更新する。
論文 参考訳(メタデータ) (2024-11-18T22:18:34Z) - Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Kalman Bayesian Neural Networks for Closed-form Online Learning [5.220940151628734]
閉形式ベイズ推論によるBNN学習のための新しい手法を提案する。
出力の予測分布の計算と重み分布の更新をベイズフィルタおよび平滑化問題として扱う。
これにより、勾配降下のないシーケンシャル/オンライン方式でネットワークパラメータをトレーニングするためのクローズドフォーム表現が可能になる。
論文 参考訳(メタデータ) (2021-10-03T07:29:57Z) - Differentially private training of neural networks with Langevin
dynamics forcalibrated predictive uncertainty [58.730520380312676]
その結果,DP-SGD(差分偏差勾配勾配勾配勾配勾配)は,低校正・過信深層学習モデルが得られることがわかった。
これは、医療診断など、安全クリティカルな応用にとって深刻な問題である。
論文 参考訳(メタデータ) (2021-07-09T08:14:45Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Variational Laplace for Bayesian neural networks [25.055754094939527]
Variational Laplaceは、ニューラルネットワークの重みをサンプリングすることなく、ELBOを推定する可能性の局所近似を利用する。
分散パラメータの学習率を増加させることで早期停止を回避できることを示す。
論文 参考訳(メタデータ) (2021-02-27T14:06:29Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Stochastic Bayesian Neural Networks [0.0]
ベイズニューラルネットワークの変分推論手法を,元のエビデンス下界を用いて構築する。
我々は,エビデンス低境界と呼ばれる新たな目的関数を用いて,エビデンス低境界を最大化するベイズニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-12T19:48:34Z) - A Bayesian regularization-backpropagation neural network model for
peeling computations [0.0]
入力データは有限要素(FE)剥離結果から取得される。
ニューラルネットワークは、FEデータセットの75%でトレーニングされる。
BR-BPNNモデルとk-fold法を併用することにより,剥離挙動を推定できる可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-29T21:58:43Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。