論文の概要: Monte Carlo DropBlock for Modelling Uncertainty in Object Detection
- arxiv url: http://arxiv.org/abs/2108.03614v1
- Date: Sun, 8 Aug 2021 11:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:28:14.030960
- Title: Monte Carlo DropBlock for Modelling Uncertainty in Object Detection
- Title(参考訳): 物体検出における不確かさモデリングのためのモンテカルロドロップブロック
- Authors: Kumari Deepshikha, Sai Harsha Yelleni, P.K. Srijith, C Krishna Mohan
- Abstract要約: 本研究では,オブジェクト検出およびセグメント化タスクにおける不確実性をモデル化するための,効率的かつ効果的な手法を提案する。
提案手法は、YOLOのようなディープラーニングモデルの畳み込み層において、トレーニング時間とテスト時間の間にドロップブロックを適用する。
- 参考スコア(独自算出の注目度): 4.406418914680961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advancements made in deep learning, computer vision problems like
object detection and segmentation have seen a great improvement in performance.
However, in many real-world applications such as autonomous driving vehicles,
the risk associated with incorrect predictions of objects is very high.
Standard deep learning models for object detection such as YOLO models are
often overconfident in their predictions and do not take into account the
uncertainty in predictions on out-of-distribution data. In this work, we
propose an efficient and effective approach to model uncertainty in object
detection and segmentation tasks using Monte-Carlo DropBlock (MC-DropBlock)
based inference. The proposed approach applies drop-block during training time
and test time on the convolutional layer of the deep learning models such as
YOLO. We show that this leads to a Bayesian convolutional neural network
capable of capturing the epistemic uncertainty in the model. Additionally, we
capture the aleatoric uncertainty using a Gaussian likelihood. We demonstrate
the effectiveness of the proposed approach on modeling uncertainty in object
detection and segmentation tasks using out-of-distribution experiments.
Experimental results show that MC-DropBlock improves the generalization,
calibration, and uncertainty modeling capabilities of YOLO models in object
detection and segmentation.
- Abstract(参考訳): ディープラーニングの進歩により、オブジェクト検出やセグメンテーションといったコンピュータビジョンの問題は、パフォーマンスが大幅に向上している。
しかし、自動運転車のような現実世界の多くのアプリケーションでは、オブジェクトの誤った予測に関連するリスクは非常に高い。
YOLOモデルのようなオブジェクト検出のための標準的なディープラーニングモデルは、しばしば予測を過信しており、分布外データの予測の不確実性を考慮していない。
本研究では,モンテカルロDropBlock (MC-DropBlock) を用いたオブジェクト検出およびセグメンテーションタスクにおける不確実性をモデル化するための効率的かつ効果的な手法を提案する。
提案手法は、YOLOのようなディープラーニングモデルの畳み込み層において、トレーニング時間とテスト時間の間にドロップブロックを適用する。
これにより,ベイズ的畳み込みニューラルネットワークが,そのモデルにおけるてんかんの不確かさを捉えることができることを示す。
さらに,ガウス的確率を用いてアリュータ的不確かさを捉える。
分布外実験を用いたオブジェクト検出およびセグメント化タスクにおけるモデリングの不確実性に対する提案手法の有効性を示す。
実験結果から, MC-DropBlockは, オブジェクト検出およびセグメンテーションにおけるYOLOモデルの一般化, 校正, 不確実性モデリング能力を向上させることが示された。
関連論文リスト
- Uncertainty-aware Human Mobility Modeling and Anomaly Detection [28.311683535974634]
本研究では,効率的な異常検出に向けて,人間のエージェントの移動行動のモデル化方法について検討する。
我々はGPSデータを時系列の静止点イベントとして使用し、それぞれに時間的特徴を特徴付ける。
数万のエージェントによる大規模専門家シミュレーションデータセットの実験は、我々のモデルの有効性を実証している。
論文 参考訳(メタデータ) (2024-10-02T06:57:08Z) - MEAOD: Model Extraction Attack against Object Detectors [45.817537875368956]
モデル抽出攻撃は、攻撃者が被害者モデルに匹敵する機能を持つ代替モデルを複製することを可能にする。
本稿では,オブジェクト検出モデルに対するMEAODと呼ばれる効果的な攻撃手法を提案する。
10kのクエリ予算の所定の条件下で,抽出性能を70%以上達成する。
論文 参考訳(メタデータ) (2023-12-22T13:28:50Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - MDN-VO: Estimating Visual Odometry with Confidence [34.8860186009308]
視覚オドメトリー(VO)は、ロボット工学や自律システムを含む多くのアプリケーションで使われている。
本研究では、6-DoFのポーズを推定する深層学習に基づくVOモデルと、これらの推定に対する信頼度モデルを提案する。
本実験は,本モデルが故障事例の検出に加えて,最先端の性能を上回ることを示す。
論文 参考訳(メタデータ) (2021-12-23T19:26:04Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Prediction Surface Uncertainty Quantification in Object Detection Models
for Autonomous Driving [5.784950275336468]
自律走行車における物体検出は、一般的にカメラ画像とライダー入力に基づいており、予測モデルを訓練するためにしばしば使用される。
このような回帰モデルの予測不確実性を測定するために,PURE (Prediction sURface uncErtainty) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-11T08:31:15Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - A Deep Marginal-Contrastive Defense against Adversarial Attacks on 1D
Models [3.9962751777898955]
ディープラーニングアルゴリズムは最近、脆弱性のために攻撃者がターゲットとしている。
非連続的深層モデルは、いまだに敵対的な攻撃に対して頑健ではない。
本稿では,特徴を特定のマージン下に置くことによって予測を容易にする新しい目的/損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-08T20:51:43Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。