論文の概要: Pixel Invisibility: Detecting Objects Invisible in Color Images
- arxiv url: http://arxiv.org/abs/2006.08383v2
- Date: Tue, 16 Jun 2020 02:46:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 05:20:57.508456
- Title: Pixel Invisibility: Detecting Objects Invisible in Color Images
- Title(参考訳): ピクセル可視性:カラー画像に見えない物体を検出する
- Authors: Yongxin Wang and Duminda Wijesekera
- Abstract要約: 本稿では,手動ラベリングを必要としないカラー画像に対して,画素レベルの可視性マップを予測するアルゴリズムを提案する。
本稿では,色から赤外領域へのクロスモーダルな知識蒸留を,その日からの弱配向画像対を用いた新しい利用法を提案する。
実験により,我々の画素レベルの可視性マスクの優れた性能と,赤外線画像の物体検出における蒸留中レベル特徴の有効性が示された。
- 参考スコア(独自算出の注目度): 3.2235261057020606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent success of object detectors using deep neural networks, their
deployment on safety-critical applications such as self-driving cars remains
questionable. This is partly due to the absence of reliable estimation for
detectors' failure under operational conditions such as night, fog, dusk, dawn
and glare. Such unquantifiable failures could lead to safety violations. In
order to solve this problem, we created an algorithm that predicts a
pixel-level invisibility map for color images that does not require manual
labeling - that computes the probability that a pixel/region contains objects
that are invisible in color domain, during various lighting conditions such as
day, night and fog. We propose a novel use of cross modal knowledge
distillation from color to infra-red domain using weakly-aligned image pairs
from the day and construct indicators for the pixel-level invisibility based on
the distances of their intermediate-level features. Quantitative experiments
show the great performance of our pixel-level invisibility mask and also the
effectiveness of distilled mid-level features on object detection in infra-red
imagery.
- Abstract(参考訳): 深層ニューラルネットワークを用いた物体検出器の最近の成功にもかかわらず、自動運転車のような安全クリティカルな応用への展開は疑問視されている。
これは、夜間、霧、夕暮れ、夜明け、輝きといった運用条件下での検出器の故障の信頼性が低いためである。
このような不当な失敗は、安全性の侵害につながる可能性がある。
この問題を解決するために、我々は、日、夜、霧といった様々な照明条件下で、色領域で見えない物体を含む画素/領域の確率を計算し、手動ラベリングを必要としないカラー画像の画素レベルの可視マップを予測するアルゴリズムを開発した。
そこで本研究では,日中の弱アライメント画像ペアを用いた色から赤外線領域へのクロスモーダル知識の蒸留と,その中間レベル特徴距離に基づく画素レベルの可視性指標の構築を提案する。
定量的実験により, 画素レベルの可視性マスクの性能と, 蒸留中濃度特性が赤外線画像中の被写体検出に及ぼす影響が示された。
関連論文リスト
- Road Obstacle Detection based on Unknown Objectness Scores [0.0]
異常検出技術により、未知の物体の画素をオフ・オブ・ディストリビューション(OoD)サンプルとして識別することができる。
本研究の目的は,物体検出の手法を画素単位の異常検出手法に組み込むことで,未知物体を検出するための安定した性能を実現することである。
論文 参考訳(メタデータ) (2024-03-27T02:35:36Z) - Beyond Night Visibility: Adaptive Multi-Scale Fusion of Infrared and
Visible Images [49.75771095302775]
赤外線および可視画像を用いた適応型マルチスケール核融合ネットワーク(AMFusion)を提案する。
まず、赤外画像と可視画像から空間的特徴と意味的特徴を分離し、前者が光分布の調整に使用される。
第2に,事前学習したバックボーンから抽出した検出機能を利用して,意味的特徴の融合を誘導する。
第3に、通常の光強度で融合画像を制約する新しい照明損失を提案する。
論文 参考訳(メタデータ) (2024-03-02T03:52:07Z) - Color Recognition in Challenging Lighting Environments: CNN Approach [0.0]
研究者は、コンピュータビジョンの応用のための色検出技術を強化するために取り組んでいる。
この問題に対処するために,畳み込みニューラルネットワーク(CNN)に基づく色検出手法を提案する。
本手法は照明条件の異なる色検出の堅牢性を大幅に向上させることができることを実験的に検証した。
論文 参考訳(メタデータ) (2024-02-07T11:26:00Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - BALF: Simple and Efficient Blur Aware Local Feature Detector [14.044093492945334]
局所特徴検出は多くの画像処理とコンピュータビジョンアプリケーションの主要な要素である。
本稿では,不明瞭な画像中の有意なキーポイントを正確に局所化できる,効率的かつ効果的なキーポイント検出法を提案する。
本手法は, 新たな多層パーセプトロン(MLP)アーキテクチャの利点を生かし, ぼやけた画像の検出再現性を著しく向上させる。
論文 参考訳(メタデータ) (2022-11-27T05:29:57Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Dark Spot Detection from SAR Images Based on Superpixel Deeper Graph
Convolutional Network [1.4286493651817906]
本稿では,超画素深部グラフ畳み込みネットワーク(SGDCN)に基づく暗斑検出手法を提案する。
超画素領域から計算した特徴は固定画素近傍の特徴よりも頑丈である。
本手法を検証するため,バルト海を覆っている6つのSAR画像にすべての暗斑点をマークし,暗斑検出データセットを構築した。
論文 参考訳(メタデータ) (2022-04-20T05:23:04Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z) - UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional
Variational Autoencoders [81.5490760424213]
データラベリングプロセスから学習することで、RGB-Dサリエンシ検出に不確実性を利用するための第1のフレームワーク(UCNet)を提案する。
そこで本研究では,サリエンシデータラベリングにヒントを得て,確率的RGB-Dサリエンシ検出ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-13T04:12:59Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。