論文の概要: Adaptive Illumination Control for Robot Perception
- arxiv url: http://arxiv.org/abs/2602.15900v1
- Date: Fri, 13 Feb 2026 03:34:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.37835
- Title: Adaptive Illumination Control for Robot Perception
- Title(参考訳): ロボット知覚のための適応照明制御
- Authors: Yash Turkar, Shekoufeh Sadeghi, Karthik Dantu,
- Abstract要約: Lightningは、ビジュアルSLAMのためのクローズドループ照明制御フレームワークである。
ライティング、オフライン最適化、模倣学習を組み合わせたものだ。
SLAM軌道を大幅に改善し、不要な照明電力を低減させる。
- 参考スコア(独自算出の注目度): 6.718749267591075
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Robot perception under low light or high dynamic range is usually improved downstream - via more robust feature extraction, image enhancement, or closed-loop exposure control. However, all of these approaches are limited by the image captured these conditions. An alternate approach is to utilize a programmable onboard light that adds to ambient illumination and improves captured images. However, it is not straightforward to predict its impact on image formation. Illumination interacts nonlinearly with depth, surface reflectance, and scene geometry. It can both reveal structure and induce failure modes such as specular highlights and saturation. We introduce Lightning, a closed-loop illumination-control framework for visual SLAM that combines relighting, offline optimization, and imitation learning. This is performed in three stages. First, we train a Co-Located Illumination Decomposition (CLID) relighting model that decomposes a robot observation into an ambient component and a light-contribution field. CLID enables physically consistent synthesis of the same scene under alternative light intensities and thereby creates dense multi-intensity training data without requiring us to repeatedly re-run trajectories. Second, using these synthesized candidates, we formulate an offline Optimal Intensity Schedule (OIS) problem that selects illumination levels over a sequence trading off SLAM-relevant image utility against power consumption and temporal smoothness. Third, we distill this ideal solution into a real-time controller through behavior cloning, producing an Illumination Control Policy (ILC) that generalizes beyond the initial training distribution and runs online on a mobile robot to command discrete light-intensity levels. Across our evaluation, Lightning substantially improves SLAM trajectory robustness while reducing unnecessary illumination power.
- Abstract(参考訳): 低光域や高ダイナミックレンジでのロボットの知覚は、より堅牢な特徴抽出、画像強調、クローズドループ露光制御を通じて、下流で改善される。
しかし、これらのアプローチはすべて、これらの条件を捉えた画像によって制限されている。
別のアプローチは、周囲の照明を付加し、キャプチャーされた画像を改善する、プログラマブルなオンボードライトを使用することである。
しかし、画像形成への影響を予測することは容易ではない。
照明は、深さ、表面反射率、シーン幾何学と非線形に相互作用する。
構造を明らかにし、スペキュラハイライトや飽和といった障害モードを誘発する。
我々は、ライティング、オフライン最適化、模倣学習を組み合わせた視覚SLAMのためのクローズドループ照明制御フレームワークLightningを紹介する。
これは3段階で行われる。
まず、ロボット観察を環境成分と光寄与場に分解するコローカライズイルミネーション分解(CLID)リライトリングモデルを訓練する。
CLIDは、他の光強度下で同じシーンを物理的に一貫した合成が可能であり、これにより、繰り返しトラックを走らせることなく、密集した多強度トレーニングデータを生成する。
第2に、これらの合成された候補を用いて、SLAM関連画像ユーティリティーと電力消費と時間的滑らかさをトレードオフしたシーケンス上の照明レベルを選択するオフライン最適強度スケジュール(OIS)問題を定式化する。
第3に,この理想的な解法を行動クローニングによりリアルタイムコントローラに蒸留し,初期トレーニング分布を超えて一般化したイルミネーション制御ポリシー(ILC)を作成し,移動ロボット上でオンライン上で実行し,個別の光強度レベルを指示する。
評価全体にわたって、Lightningは、不必要な照明電力を低減しつつ、SLAM軌道の頑健性を大幅に改善する。
関連論文リスト
- Zero-Shot UAV Navigation in Forests via Relightable 3D Gaussian Splatting [11.31291385822484]
受動的単眼視を用いた非構造屋外環境におけるUAVナビゲーションは、シミュレーションと現実の間のかなりの視覚領域のギャップによって妨げられる。
本研究では,非構造化屋外への効率的なゼロショット転送を目的とした,エンドツーエンドの強化学習フレームワークを提案する。
本研究では, 複雑な森林環境において, 最大10m/sの速さで, 頑健で無衝突な航法を実現することを実証した。
論文 参考訳(メタデータ) (2026-02-06T15:51:03Z) - HeadLighter: Disentangling Illumination in Generative 3D Gaussian Heads via Lightstage Captures [69.99269185793929]
三次元ガウススプラッティングに基づく最近の3次元頭部生成モデルにより, リアルタイム, フォトリアリスティック, ビュー一貫性の頭部合成が可能となった。
照明と内在的な外観の深い絡み合いは、制御可能なリライトを防ぐ。
本稿では,頭部生成モデルにおける外観と照明の物理的に妥当な分解を学習する,新しい教師付きフレームワークであるHeadLighterを紹介する。
論文 参考訳(メタデータ) (2026-01-05T13:32:37Z) - Light-X: Generative 4D Video Rendering with Camera and Illumination Control [52.87059646145144]
Light-Xは、視点制御と照明制御の両方でモノクロビデオから制御可能なレンダリングを可能にする、ビデオ生成フレームワークである。
マルチビューとマルチイルミネーションのペアビデオの欠如に対処するために,逆マッピングを備えた劣化ベースのパイプラインであるLight-Synを導入する。
論文 参考訳(メタデータ) (2025-12-04T18:59:57Z) - DIME-Net: A Dual-Illumination Adaptive Enhancement Network Based on Retinex and Mixture-of-Experts [7.6894262288762665]
本稿では,DIME-Netと呼ばれるデュアルイルミネーション向上フレームワークを提案する。
Retinex理論を統合することで、このモジュールは低照度画像とバックライト画像の両方に合わせた拡張を効果的に実行する。
DIME-Netは, 実世界の低照度データセットとバックライトデータセットの両方において, 再トレーニングを伴わずに, 競合性能を達成できることを示す。
論文 参考訳(メタデータ) (2025-08-19T15:17:47Z) - LightLab: Controlling Light Sources in Images with Diffusion Models [49.83835236202516]
画像中の光源を微細かつパラメトリックに制御する拡散法を提案する。
我々は、光の線形性を利用して、ターゲット光源または周囲照明の制御された光の変化を描写した画像対を合成する。
提案手法は, ユーザの好みに基づいて, 従来の方法よりも優れた光編集結果が得られることを示す。
論文 参考訳(メタデータ) (2025-05-14T17:57:27Z) - When Lighting Deceives: Exposing Vision-Language Models' Illumination Vulnerability Through Illumination Transformation Attack [13.197468488144038]
VLM(Vision-Language Models)は様々なタスクにおいて顕著な成功を収めてきたが、現実の照明に対する頑健さは明らかにされていない。
textbfIllumination textbfTransformation textbfAttack (textbfITA)を提案する。
論文 参考訳(メタデータ) (2025-03-10T04:12:56Z) - DAP-LED: Learning Degradation-Aware Priors with CLIP for Joint Low-light Enhancement and Deblurring [14.003870853594972]
DAP-LEDと呼ばれる新しい変圧器を用いた共同学習フレームワークを提案する。
低照度向上と劣化を共同で達成することができ、深度推定、セグメンテーション、暗黒での検知といった下流タスクの恩恵を受けることができる。
重要な洞察は、CLIPを活用して、夜間に画像から劣化レベルを適応的に学習することだ。
論文 参考訳(メタデータ) (2024-09-20T13:37:53Z) - Zero-Reference Low-Light Enhancement via Physical Quadruple Priors [58.77377454210244]
本稿では,標準光画像のみをトレーニング可能な,ゼロ参照低光強調フレームワークを提案する。
このフレームワークは、画像にさかのぼる照明不変性を復元し、自動的に低照度化を実現します。
論文 参考訳(メタデータ) (2024-03-19T17:36:28Z) - Cycle-Interactive Generative Adversarial Network for Robust Unsupervised
Low-Light Enhancement [109.335317310485]
CIGAN(Cycle-Interactive Generative Adversarial Network)は、低照度画像間の照明分布の転送を改善できるだけでなく、詳細な信号も操作できる。
特に、提案した低照度誘導変換は、低照度GAN生成器から劣化GAN生成器へ、低照度画像の特徴をフォワードする。
論文 参考訳(メタデータ) (2022-07-03T06:37:46Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。