論文の概要: Towards Solar Altitude Guided Scene Illumination
- arxiv url: http://arxiv.org/abs/2507.05812v1
- Date: Tue, 08 Jul 2025 09:31:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.832941
- Title: Towards Solar Altitude Guided Scene Illumination
- Title(参考訳): 太陽高度誘導シーン照明に向けて
- Authors: Samed Doğan, Maximilian Hoh, Nico Leuze, Nicolas R. -Peña, Alfred Schöttl,
- Abstract要約: リアルワードデータ取得は、人的労働力を強く要求し、ラベル付けコスト、運転者の安全プロトコル、多様なシナリオカバレッジなどの要因によって強く制限されている。
日中の変動に関する研究において,ラベルの不足が原因と考えられる重要なギャップを同定する。
我々は、太陽高度を大域的条件変数として提示し、緯度-経度座標と局所時間から容易に計算可能であり、広範囲な手動ラベリングの必要性を排除している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of safe and robust autonomous driving functions is heavily dependent on large-scale, high-quality sensor data. However, real-word data acquisition demands intensive human labor and is strongly limited by factors such as labeling cost, driver safety protocols and diverse scenario coverage. Thus, multiple lines of work focus on the conditional generation of synthetic camera sensor data. We identify a significant gap in research regarding daytime variation, presumably caused by the scarcity of available labels. Consequently, we present the solar altitude as global conditioning variable. It is readily computable from latitude-longitude coordinates and local time, eliminating the need for extensive manual labeling. Our work is complemented by a tailored normalization approach, targeting the sensitivity of daylight towards small numeric changes in altitude. We demonstrate its ability to accurately capture lighting characteristics and illumination-dependent image noise in the context of diffusion models.
- Abstract(参考訳): 安全で堅牢な自律運転機能の開発は、大規模で高品質なセンサーデータに大きく依存している。
しかし、リアルタイムデータ取得は、人的労働力の集中を要求しており、ラベル付けコスト、運転者の安全プロトコル、多様なシナリオカバレッジといった要因に強く制限されている。
このように、複数行の作業は、合成カメラセンサデータの条件付き生成に焦点を当てている。
日中の変動に関する研究において,ラベルの不足が原因と考えられる重要なギャップを同定する。
その結果,太陽高度を大域的条件変数として提示した。
緯度-経度座標と局所時間から容易に計算可能であり、手動ラベリングは不要である。
我々の研究は、日光の感度を高度の小さな数値変化に向け、調整された正規化アプローチによって補完されている。
拡散モデルを用いて照明特性と照明依存画像ノイズを正確に捉える能力を示す。
関連論文リスト
- Distance Estimation in Outdoor Driving Environments Using Phase-only Correlation Method with Event Cameras [5.690128924544198]
単眼イベントカメラと路面LEDバーを用いた距離推定手法を提案する。
提案手法は,20mから60mの範囲で0.5m以下の誤差で90%以上の成功率を達成する。
将来的には、LEDを備えたスマートポールなどのインフラを活用して、この手法を全位置推定に拡張する予定である。
論文 参考訳(メタデータ) (2025-05-23T07:44:33Z) - Digital twins to alleviate the need for real field data in vision-based vehicle speed detection systems [0.9899633398596672]
正確な視覚に基づく速度推定は、レーダーやLiDARに基づく従来の手法よりもコスト効率が高い。
ディープラーニングのアプローチは、利用可能なデータがないため、このコンテキストでは極めて限定的です。
本研究では,CARLAシミュレータを用いたデジタルツインを用いて,特定の実世界のカメラの大規模なデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:41:20Z) - MUSES: The Multi-Sensor Semantic Perception Dataset for Driving under Uncertainty [46.369657697892634]
MUSES(MUlti-Sensor Semantic 知覚データセット)を導入する。
データセットはフレームカメラ、ライダー、レーダー、イベントカメラ、IMU/GNSSセンサーを統合する。
MUSESは、様々な視覚条件下でモデルを評価するのに、トレーニングと挑戦の両方に効果的であることを証明している。
論文 参考訳(メタデータ) (2024-01-23T13:43:17Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation [152.60469768559878]
ShiFTは、自動運転のための最大規模のマルチタスク合成データセットである。
曇り、雨と霧の強さ、昼の時間、車と歩行者の密度を個別に連続的に変化させる。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shift.comで公開されています。
論文 参考訳(メタデータ) (2022-06-16T17:59:52Z) - ViViD++: Vision for Visibility Dataset [14.839450468199457]
様々な輝度条件をターゲットとした多様な視覚データフォーマットを抽出したデータセットを提案する。
代替センサーの可能性にもかかわらず、代替視覚センサーを備えたデータセットは依然として少ない。
これらの測定結果と慣性センサーと接地構造を併用して,照明不良下でのロバストな視力SLAMを開発する。
論文 参考訳(メタデータ) (2022-04-13T06:01:27Z) - Artificial Dummies for Urban Dataset Augmentation [0.0]
画像中の歩行者検知器を訓練するための既存のデータセットは、外観やポーズの変動が限られている。
本稿では,人を含む都市景観の合成制御のための拡張手法について述べる。
DummyNetが生成するデータは、さまざまなデータセットにわたる複数の既存の人検出器のパフォーマンスを向上させることを実証します。
論文 参考訳(メタデータ) (2020-12-15T13:17:25Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。