論文の概要: Active Illumination Control in Low-Light Environments using NightHawk
- arxiv url: http://arxiv.org/abs/2506.06394v1
- Date: Thu, 05 Jun 2025 19:14:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.253618
- Title: Active Illumination Control in Low-Light Environments using NightHawk
- Title(参考訳): ナイトフックを用いた低照度環境におけるアクティブ照明制御
- Authors: Yash Turkar, Youngjin Kim, Karthik Dantu,
- Abstract要約: NightHawkは、アクティブ照明と露出制御を組み合わせることで、困難な照明条件下での画質を最適化するフレームワークである。
フィールド実験の結果、特徴の検出とマッチングが47-197%向上し、難易度の高い照明条件でのより信頼性の高い視覚的推定が可能になった。
- 参考スコア(独自算出の注目度): 6.8108562306808835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subterranean environments such as culverts present significant challenges to robot vision due to dim lighting and lack of distinctive features. Although onboard illumination can help, it introduces issues such as specular reflections, overexposure, and increased power consumption. We propose NightHawk, a framework that combines active illumination with exposure control to optimize image quality in these settings. NightHawk formulates an online Bayesian optimization problem to determine the best light intensity and exposure-time for a given scene. We propose a novel feature detector-based metric to quantify image utility and use it as the cost function for the optimizer. We built NightHawk as an event-triggered recursive optimization pipeline and deployed it on a legged robot navigating a culvert beneath the Erie Canal. Results from field experiments demonstrate improvements in feature detection and matching by 47-197% enabling more reliable visual estimation in challenging lighting conditions.
- Abstract(参考訳): カルバートのような地下環境は、薄暗い照明と特徴の欠如により、ロボットビジョンに重大な課題をもたらす。
搭載された照明は役に立つが、スペックル反射、過剰露光、電力消費の増加といった問題を導入する。
能動照明と露出制御を組み合わせたNightHawkを提案する。
NightHawkは、オンラインベイズ最適化の問題を定式化して、特定のシーンに最適な光強度と露光時間を決定する。
本稿では,画像の有効性を定量化し,最適化器のコスト関数として利用するための特徴量検出手法を提案する。
われわれはNightHawkをイベントトリガーで再帰的な最適化パイプラインとして構築し、エリー運河の下を曲がりくねったロボットに展開した。
フィールド実験の結果、特徴の検出とマッチングが47-197%向上し、難易度の高い照明条件でのより信頼性の高い視覚的推定が可能になった。
関連論文リスト
- Learning Underwater Active Perception in Simulation [51.205673783866146]
タービディティは、検査された構造物の正確な視覚的記録を阻止する可能性があるため、ミッション全体を危険に晒す可能性がある。
従来の研究は、濁度や後方散乱に適応する手法を導入してきた。
本研究では, 広範囲の水環境下での高品質な画像取得を実現するための, 単純かつ効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-23T06:48:38Z) - Low-Light Image Enhancement using Event-Based Illumination Estimation [83.81648559951684]
低照度画像強調(LLIE)は、低照度環境で撮影された画像の可視性を改善することを目的としている。
本稿では,「時間的マッピング」イベントを用いた照明推定の観点から,新たな道を開く。
我々は、ビームスプリッターのセットアップを構築し、画像、時間的マッピングイベント、モーションイベントを含むEvLowLightデータセットを収集する。
論文 参考訳(メタデータ) (2025-04-13T00:01:33Z) - LENVIZ: A High-Resolution Low-Exposure Night Vision Benchmark Dataset [3.9155038571917005]
Low Exposure Night Vision (LENVIZ)データセットは、低照度画像拡張のためのベンチマークデータセットである。
LENVIZは、様々な照明条件、騒音レベル、シーンの複雑さを提供しており、この分野で利用可能な最大4K解像度のベンチマークである。
各マルチ露光低照度シーンは、専門家写真家によって慎重にキュレートされ、編集され、最適な画質が確保されている。
論文 参考訳(メタデータ) (2025-03-25T16:12:28Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Enhancing Visibility in Nighttime Haze Images Using Guided APSF and
Gradient Adaptive Convolution [28.685126418090338]
既存の夜間の脱暖法は、光や低照度の条件を扱うのにしばしば苦労する。
本稿では、光を抑え、低照度領域を高めることにより、夜間のハゼ画像からの視認性を高める。
GTA5夜間ヘイズデータセットでは,PSNRが30.38dBとなり,最先端の手法よりも13%向上した。
論文 参考訳(メタデータ) (2023-08-03T12:58:23Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。