論文の概要: Detection and Retrieval of Out-of-Distribution Objects in Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2005.06831v1
- Date: Thu, 14 May 2020 09:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 05:14:56.356673
- Title: Detection and Retrieval of Out-of-Distribution Objects in Semantic
Segmentation
- Title(参考訳): セマンティクスセグメンテーションにおける分散対象の検出と検索
- Authors: Philipp Oberdiek and Matthias Rottmann and Gernot A. Fink
- Abstract要約: 本稿では,深層ニューラルネットワークの予測を用いて,分布外セグメント(OOD)を検出するセマンティックセグメンテーションのための新しいパイプラインを提案する。
実験では,デプロイされたOODアプローチがアウト・オブ・ディストリビューションの概念を検出するのに適していることを示した。
- 参考スコア(独自算出の注目度): 9.496524884855559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When deploying deep learning technology in self-driving cars, deep neural
networks are constantly exposed to domain shifts. These include, e.g., changes
in weather conditions, time of day, and long-term temporal shift. In this work
we utilize a deep neural network trained on the Cityscapes dataset containing
urban street scenes and infer images from a different dataset, the A2D2
dataset, containing also countryside and highway images. We present a novel
pipeline for semantic segmenation that detects out-of-distribution (OOD)
segments by means of the deep neural network's prediction and performs image
retrieval after feature extraction and dimensionality reduction on image
patches. In our experiments we demonstrate that the deployed OOD approach is
suitable for detecting out-of-distribution concepts. Furthermore, we evaluate
the image patch retrieval qualitatively as well as quantitatively by means of
the semi-compatible A2D2 ground truth and obtain mAP values of up to 52.2%.
- Abstract(参考訳): 自動運転車にディープラーニングテクノロジをデプロイする場合、ディープニューラルネットワークは常にドメインシフトにさらされる。
例えば、天候の変化、日時、長期の時間変化などである。
本研究では,都市の街並みを含む都市景観データセット上で訓練された深層ニューラルネットワークを用いて,異なるデータセットであるa2d2データセットから画像を推定する。
本稿では, 深層ニューラルネットワークの予測により分布外セグメント(OOD)を検出するセマンティック・セグメンテーションのパイプラインを提案し, 特徴抽出後の画像検索と画像パッチの次元化を行う。
実験では,デプロイされたOODアプローチが分布外概念の検出に適していることを示した。
さらに、半互換のa2d2基底真理を用いて画像パッチ検索を定性的に定量的に評価し、最大52.2%の地図値を得る。
関連論文リスト
- UAVs and Neural Networks for search and rescue missions [0.0]
無人航空機(UAV)が捉えた空中画像において,車,人,火などの興味の対象を検出する方法を提案する。
これを実現するために,ニューラルネットワークを用いて教師あり学習のためのデータセットを作成する。
論文 参考訳(メタデータ) (2023-10-09T08:27:35Z) - Dsfer-Net: A Deep Supervision and Feature Retrieval Network for Bitemporal Change Detection Using Modern Hopfield Networks [35.415260892693745]
本稿では,バイテンポラル変化検出のためのDeep Supervision and feature Retrieval Network (Dsfer-Net)を提案する。
具体的には、バイテンポラル画像の高度に代表的な深い特徴を、完全に畳み込みされたシームズネットワークを通じて、共同で抽出する。
エンド・ツー・エンドのネットワークは,異なるレイヤから抽出した特徴と特徴のペアを集約することで,新たなフレームワークを確立する。
論文 参考訳(メタデータ) (2023-04-03T16:01:03Z) - An Empirical Study of Remote Sensing Pretraining [117.90699699469639]
本研究では,空中画像におけるリモートセンシング事前訓練(RSP)の実証的研究を行った。
RSPは、シーン認識タスクで特有のパフォーマンスを提供するのに役立つ。
RSPは、従来のイメージネットがRS画像に事前学習する際のデータ格差を緩和するが、それでもタスクの相違に悩まされる可能性がある。
論文 参考訳(メタデータ) (2022-04-06T13:38:11Z) - Toward Data-Driven STAP Radar [23.333816677794115]
我々は、時空間適応処理(STAP)レーダーに対するデータ駆動アプローチを特徴付ける。
所定領域に可変強度のターゲットをランダムに配置することにより、受信レーダ信号の豊富なサンプルデータセットを生成する。
この領域内の各データサンプルに対して、ビームフォーマの出力パワーのレンジ、方位、および上昇のヒートマップテンソルを生成する。
空中に浮かぶシナリオでは、動くレーダーは、ビデオに似た、これらのタイムインデクシングされたイメージスタックのシーケンスを生成する。
論文 参考訳(メタデータ) (2022-01-26T02:28:13Z) - Residual Moment Loss for Medical Image Segmentation [56.72261489147506]
位置情報は,対象物体の多様体構造を捉えた深層学習モデルに有効であることが証明された。
既存のほとんどの手法は、ネットワークが学習するために、位置情報を暗黙的にエンコードする。
セグメント化対象の位置情報を明示的に埋め込むために,新しい損失関数,すなわち残差モーメント(RM)損失を提案する。
論文 参考訳(メタデータ) (2021-06-27T09:31:49Z) - Hierarchical Convolutional Neural Network with Feature Preservation and
Autotuned Thresholding for Crack Detection [5.735035463793008]
ドローンの画像はインフラ表面の欠陥の自動検査にますます使われている。
本稿では,階層型畳み込みニューラルネットワークを用いた深層学習手法を提案する。
提案手法は, 道路, 橋, 舗装の表面ひび割れの同定に応用されている。
論文 参考訳(メタデータ) (2021-04-21T13:07:58Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - SOSD-Net: Joint Semantic Object Segmentation and Depth Estimation from
Monocular images [94.36401543589523]
これら2つのタスクの幾何学的関係を利用するための意味的対象性の概念を紹介します。
次に, 対象性仮定に基づくセマンティックオブジェクト・深さ推定ネットワーク(SOSD-Net)を提案する。
私たちの知識を最大限に活用するために、SOSD-Netは同時単眼深度推定とセマンティックセグメンテーションのためのジオメトリ制約を利用する最初のネットワークです。
論文 参考訳(メタデータ) (2021-01-19T02:41:03Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Saliency Enhancement using Gradient Domain Edges Merging [65.90255950853674]
本研究では,エッジとサリエンシマップをマージして,サリエンシマップの性能を向上させる手法を開発した。
これにより、DUT-OMRONデータセットの少なくとも3.4倍の平均的な改善により、エッジ(SEE)を使用したサリエンシ向上が提案された。
SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。
論文 参考訳(メタデータ) (2020-02-11T14:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。