論文の概要: HighlightNet: Highlighting Low-Light Potential Features for Real-Time
UAV Tracking
- arxiv url: http://arxiv.org/abs/2208.06818v1
- Date: Sun, 14 Aug 2022 10:09:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:39:14.020707
- Title: HighlightNet: Highlighting Low-Light Potential Features for Real-Time
UAV Tracking
- Title(参考訳): HighlightNet: リアルタイムUAV追跡のための軽量低光ポテンシャル機能
- Authors: Changhong Fu, Haolin Dong, Junjie Ye, Guangze Zheng, Sihang Li, Jilin
Zhao
- Abstract要約: 低照度環境は、頑丈な無人航空機(UAV)の追跡に深刻な課題をもたらしている。
この研究は、人間のオペレータとUAVトラッカーの両方の潜在的なオブジェクトを照らすための新しいエンハンサー、すなわちHighlightNetを提案する。
- 参考スコア(独自算出の注目度): 13.076998989872212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light environments have posed a formidable challenge for robust unmanned
aerial vehicle (UAV) tracking even with state-of-the-art (SOTA) trackers since
the potential image features are hard to extract under adverse light
conditions. Besides, due to the low visibility, accurate online selection of
the object also becomes extremely difficult for human monitors to initialize
UAV tracking in ground control stations. To solve these problems, this work
proposes a novel enhancer, i.e., HighlightNet, to light up potential objects
for both human operators and UAV trackers. By employing Transformer,
HighlightNet can adjust enhancement parameters according to global features and
is thus adaptive for the illumination variation. Pixel-level range mask is
introduced to make HighlightNet more focused on the enhancement of the tracking
object and regions without light sources. Furthermore, a soft truncation
mechanism is built to prevent background noise from being mistaken for crucial
features. Evaluations on image enhancement benchmarks demonstrate HighlightNet
has advantages in facilitating human perception. Experiments on the public
UAVDark135 benchmark show that HightlightNet is more suitable for UAV tracking
tasks than other SOTA low-light enhancers. In addition, real-world tests on a
typical UAV platform verify HightlightNet's practicability and efficiency in
nighttime aerial tracking-related applications. The code and demo videos are
available at https://github.com/vision4robotics/HighlightNet.
- Abstract(参考訳): 低照度環境は、不安定な光条件下での潜在的な画像の特徴の抽出が困難であるため、最先端(SOTA)トラッカーであっても、頑丈な無人航空機(UAV)の追跡に深刻な課題となっている。
また、視界の低さから、正確なオンライン選択は、地上局でのUAV追跡を初期化することが極めて困難になる。
これらの問題を解決するために、人間のオペレーターとUAVトラッカーの両方の潜在的なオブジェクトを照らすための新しいエンハンサー、すなわちHighlightNetを提案する。
トランスを使用すると、highlightnetはグローバル特徴に応じて強調パラメータを調整できるため、照明変動に対応できる。
ピクセルレベルのレンジマスクが導入され、highlightnetは光源のないトラッキングオブジェクトと領域の強化に重点を置いている。
さらに、背景雑音が重要な特徴と誤認されるのを防止するため、ソフトトランケーション機構を構築する。
画像強調ベンチマークの評価は、HighlightNetが人間の知覚を促進する利点を持っていることを示している。
パブリックなUAVDark135ベンチマークの実験では、HightlightNetは他のSOTAローライトエンハンサーよりもUAV追跡タスクに適していることが示されている。
加えて、典型的なUAVプラットフォームにおける実世界のテストは、夜間航空追跡関連アプリケーションにおけるHightlightNetの実践性と効率を検証する。
コードとデモビデオはhttps://github.com/vision4robotics/HighlightNetで公開されている。
関連論文リスト
- Enhancing Nighttime UAV Tracking with Light Distribution Suppression [6.950880335490385]
本研究は,光分布抑制による夜間UAV追跡を向上する新しいエンハンサー,LDEnhancerを提案する。
具体的には、光配信情報と画像コンテンツ情報とを分解する新規な画像コンテンツ改善モジュールを開発する。
NAT2024-2という不均一な光分布を持つ夜間UAV追跡データセットは、包括的な評価を提供するために構築されている。
論文 参考訳(メタデータ) (2024-09-25T05:19:35Z) - Zero-Reference Low-Light Enhancement via Physical Quadruple Priors [58.77377454210244]
本稿では,標準光画像のみをトレーニング可能な,ゼロ参照低光強調フレームワークを提案する。
このフレームワークは、画像にさかのぼる照明不変性を復元し、自動的に低照度化を実現します。
論文 参考訳(メタデータ) (2024-03-19T17:36:28Z) - Towards Real-Time Fast Unmanned Aerial Vehicle Detection Using Dynamic Vision Sensors [6.03212980984729]
無人航空機(UAV)は民間や軍事用途で人気を集めている。
UAVの予防と検出は、機密性と安全性を保証するために重要である。
本稿では,F-UAV-D(Fast Unmanned Aerial Vehicle Detector)を提案する。
論文 参考訳(メタデータ) (2024-03-18T15:27:58Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - Propagate And Calibrate: Real-time Passive Non-line-of-sight Tracking [84.38335117043907]
本研究では,リレー壁のみを観察することで,見えない部屋を歩いている人を追跡する純粋受動的手法を提案する。
本研究では,リレー壁の映像の非知覚的変化を発掘するため,時間的局所的な動きの伝達に欠かせない特徴として差分フレームを導入する。
提案手法を評価するため,最初の動的受動NLOS追跡データセットであるNLOS-Trackを構築し,公開する。
論文 参考訳(メタデータ) (2023-03-21T12:18:57Z) - Tracker Meets Night: A Transformer Enhancer for UAV Tracking [20.74868878876137]
空間チャネルトランスを用いた低照度エンハンサが提案され, 追従手法に先立って接続される。
高レベルタスクを対象としたセマンティックレベルの低照度化を実現するために,新しい空間チャネルアテンションモジュールを提案する。
エンハンスメント工程では、SCTは夜間画像を同時にデノイズし、照明する。
論文 参考訳(メタデータ) (2023-03-20T09:18:52Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - DarkLighter: Light Up the Darkness for UAV Tracking [14.901582782711627]
本研究は低照度画像エンハンサーであるDarkLighterを提案する。
ライトウェイトマップ推定ネットワーク、すなわちME-Netは、照明マップとノイズマップを共同で効率的に推定するために訓練される。
いくつかのSOTAトラッカーで多数のUAVダークトラッキングシーンで実験が行われた。
論文 参考訳(メタデータ) (2021-07-30T01:37:24Z) - All-Day Object Tracking for Unmanned Aerial Vehicle [19.10142725484355]
本研究は,照明適応とアンチダーク機能を備えた新しい相関フィルタベースのトラッカー,adtrackを提案する。
ADTrackは画像照度情報を利用して、与えられた光条件へのモデルの適応性を実現する。
この作業はまた、UAVの夜間追跡ベンチマークであるUAVDark135を構築し、125k以上の手動アノテートフレームで構成された。
論文 参考訳(メタデータ) (2021-01-21T05:12:37Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。