論文の概要: You Only Look Around: Learning Illumination Invariant Feature for Low-light Object Detection
- arxiv url: http://arxiv.org/abs/2410.18398v1
- Date: Thu, 24 Oct 2024 03:23:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:50:09.548763
- Title: You Only Look Around: Learning Illumination Invariant Feature for Low-light Object Detection
- Title(参考訳): 低照度物体検出のための照明不変性学習
- Authors: Mingbo Hong, Shen Cheng, Haibin Huang, Haoqiang Fan, Shuaicheng Liu,
- Abstract要約: 低照度シナリオにおけるオブジェクト検出のための新しいフレームワークであるYOLAを紹介する。
ランベルト画像形成モデルを用いて照明不変の特徴を学習する。
実験により,低照度物体検出タスクの大幅な改善が示された。
- 参考スコア(独自算出の注目度): 46.636878653865104
- License:
- Abstract: In this paper, we introduce YOLA, a novel framework for object detection in low-light scenarios. Unlike previous works, we propose to tackle this challenging problem from the perspective of feature learning. Specifically, we propose to learn illumination-invariant features through the Lambertian image formation model. We observe that, under the Lambertian assumption, it is feasible to approximate illumination-invariant feature maps by exploiting the interrelationships between neighboring color channels and spatially adjacent pixels. By incorporating additional constraints, these relationships can be characterized in the form of convolutional kernels, which can be trained in a detection-driven manner within a network. Towards this end, we introduce a novel module dedicated to the extraction of illumination-invariant features from low-light images, which can be easily integrated into existing object detection frameworks. Our empirical findings reveal significant improvements in low-light object detection tasks, as well as promising results in both well-lit and over-lit scenarios. Code is available at \url{https://github.com/MingboHong/YOLA}.
- Abstract(参考訳): 本稿では,低照度シナリオにおけるオブジェクト検出のための新しいフレームワークであるYOLAを紹介する。
従来の研究とは違って,機能学習の観点から,この課題に取り組むことを提案する。
具体的には,ランベルト画像形成モデルを用いて照明不変の特徴を学習することを提案する。
ランベルトの仮定では、隣接する色チャネルと空間的に隣接したピクセル間の相互関係を利用して照明不変の特徴写像を近似することは可能である。
追加の制約を組み込むことで、これらの関係は畳み込みカーネルの形で特徴づけられる。
この目的のために、我々は、既存のオブジェクト検出フレームワークに容易に統合可能な、低照度画像からの照明不変特徴の抽出に特化した新しいモジュールを導入する。
実験により,低照度物体検出タスクの大幅な改善と,高照度・高照度両方のシナリオにおいて有望な結果が得られた。
コードは \url{https://github.com/MingboHong/YOLA} で公開されている。
関連論文リスト
- GS-Phong: Meta-Learned 3D Gaussians for Relightable Novel View Synthesis [63.5925701087252]
本稿では,3次元ガウス点の集合を用いて,点光で照らされたシーンを表現する手法を提案する。
Blinn-Phongモデルにインスパイアされた我々の手法は、シーンを周囲、拡散、および特異成分に分解する。
照明条件に依存しない幾何学的情報の分解を容易にするため,新しい二段階最適化に基づくメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-31T13:48:54Z) - Boosting Object Detection with Zero-Shot Day-Night Domain Adaptation [33.142262765252795]
精巧なデータで訓練された検出器は、可視性が低いため、低照度データに対して顕著な性能低下を示す。
我々は、ゼロショット昼夜領域適応による低照度物体検出の高速化を提案する。
本手法は,低照度データを必要とすることなく,高照度シナリオから低照度シナリオへの検出器の一般化を行う。
論文 参考訳(メタデータ) (2023-12-02T20:11:48Z) - Trash to Treasure: Low-Light Object Detection via
Decomposition-and-Aggregation [76.45506517198956]
低照度シナリオにおけるオブジェクト検出は、ここ数年で多くの注目を集めています。
主流で代表的なスキームは、レギュラー検出器の前処理としてエンハンサーを導入している。
本研究では,エンハンサー+検出器のポテンシャルを喚起する。
論文 参考訳(メタデータ) (2023-09-07T08:11:47Z) - Weakly-supervised Single-view Image Relighting [17.49214457620938]
本稿では,ランベルトおよび低周波スペクトルの単一像をリライトする学習に基づくアプローチを提案する。
本手法では,写真からのオブジェクトを新しいシーンに挿入し,新しい環境照明下でリライトすることができる。
論文 参考訳(メタデータ) (2023-03-24T08:20:16Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - Learning from Pixel-Level Noisy Label : A New Perspective for Light
Field Saliency Detection [40.76268976076642]
光場画像による塩分濃度検出は、豊富な手がかりが得られれば魅力的になってきている。
そこで本研究では,手作り手作り手作り手作り手作り手作り手作り手作り手作り手作りの画素レベルの雑音ラベルから照度を学習する手法を提案する。
論文 参考訳(メタデータ) (2022-04-28T12:44:08Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - NOD: Taking a Closer Look at Detection under Extreme Low-Light
Conditions with Night Object Detection Dataset [25.29013780731876]
低い光は、以前考えられていたよりもマシン認知にとって困難である。
夜間に街路で撮影されたダイナミックなシーンを示す大規模なデータセットを提示する。
本稿では,画像強調モジュールをオブジェクト検出フレームワークと2つの新しいデータ拡張手法に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-20T03:44:04Z) - Sill-Net: Feature Augmentation with Separated Illumination
Representation [35.25230715669166]
分離イルミネーションネットワーク(Sill-Net)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
Sill-Netは、画像から照明機能を分離することを学び、トレーニング中に、これらの照明機能を特徴空間で分離したトレーニングサンプルを拡張する。
実験により,本手法はいくつかのオブジェクト分類ベンチマークにおいて,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-02-06T09:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。