論文の概要: Monitoring and Adapting the Physical State of a Camera for Autonomous
Vehicles
- arxiv url: http://arxiv.org/abs/2112.05456v3
- Date: Sat, 11 Nov 2023 16:54:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 00:53:14.921715
- Title: Monitoring and Adapting the Physical State of a Camera for Autonomous
Vehicles
- Title(参考訳): 自律走行車用カメラの物理的状態のモニタリングと適応
- Authors: Maik Wischow and Guillermo Gallego and Ines Ernst and Anko B\"orner
- Abstract要約: 本稿では,データおよび物理モデルに基づくカメラの汎用的・タスク指向型自己維持フレームワークを提案する。
このフレームワークを現実世界の地上車両に実装し、カメラが粗悪な状況に対応するためにパラメータを調整できることを実証する。
われわれのフレームワークは、カメラの健康状態を監視し維持するための実用的なソリューションを提供するだけでなく、より高度な問題に対処するための拡張の基盤としても機能する。
- 参考スコア(独自算出の注目度): 10.490646039938252
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autonomous vehicles and robots require increasingly more robustness and
reliability to meet the demands of modern tasks. These requirements specially
apply to cameras onboard such vehicles because they are the predominant sensors
to acquire information about the environment and support actions. Cameras must
maintain proper functionality and take automatic countermeasures if necessary.
Existing solutions are typically tailored to specific problems or detached from
the downstream computer vision tasks of the machines, which, however, determine
the requirements on the quality of the produced camera images. We propose a
generic and task-oriented self-health-maintenance framework for cameras based
on data- and physically-grounded models. To this end, we determine two
reliable, real-time capable estimators for typical image effects of a camera in
poor condition (blur, noise phenomena and most common combinations) by
evaluating traditional and customized machine learning-based approaches in
extensive experiments. Furthermore, we implement the framework on a real-world
ground vehicle and demonstrate how a camera can adjust its parameters to
counter an identified poor condition to achieve optimal application capability
based on experimental (non-linear and non-monotonic) input-output performance
curves. Object detection is chosen as target application, and the image effects
motion blur and sensor noise as conditioning examples. Our framework not only
provides a practical ready-to-use solution to monitor and maintain the health
of cameras, but can also serve as a basis for extensions to tackle more
sophisticated problems that combine additional data sources (e.g., sensor or
environment parameters) empirically in order to attain fully reliable and
robust machines. Code:
https://github.com/MaikWischow/Camera-Condition-Monitoring
- Abstract(参考訳): 自動運転車とロボットは、現代のタスクの要求を満たすために、ますます堅牢さと信頼性を必要としている。
これらの要件は、特にそのような車両に搭載されているカメラに適用される。
カメラは適切な機能を維持し、必要に応じて自動的な対策を講じなければならない。
既存のソリューションは、通常、特定の問題に合わせて調整されるか、マシンの下流のコンピュータビジョンタスクから分離される。
本稿では,データおよび物理モデルに基づくカメラの汎用的・タスク指向型自己維持フレームワークを提案する。
そこで本研究では,従来およびカスタマイズされた機械学習に基づくアプローチを広範囲な実験で評価することにより,カメラの典型的な画像効果(ブラインド,ノイズ現象,および最も一般的な組み合わせ)に対する信頼性の高い2つの実時間可能な推定器を決定する。
さらに,実世界の地上車両にそのフレームワークを実装し,カメラがパラメータを調整して識別不良条件に対抗し,実験的な(非線形および非単調な)入出力性能曲線に基づく最適な適用能力を達成する方法を示す。
対象のアプリケーションとして物体検出が選択され、画像が動きのぼやけやセンサノイズを条件付けする例となる。
私たちのフレームワークは、カメラの健全性を監視し、維持するための実用的なソリューションを提供するだけでなく、完全な信頼性と堅牢なマシンを達成するために、経験的にデータソース(例えば、センサーや環境パラメータ)を結合するより高度な問題に取り組むための拡張の基盤としても機能します。
コード:https://github.com/MaikWischow/Camera-Condition-Monitoring
関連論文リスト
- CamI2V: Camera-Controlled Image-to-Video Diffusion Model [11.762824216082508]
本稿では,明示的な物理的制約をモデル設計に統合する必要性を強調した。
ノイズ条件の新たな視点から,すべてのクロスフレーム関係をモデル化するためのエピポーラアテンションを提案する。
領域外画像への強い一般化を維持しつつ、RealEstate10K上でのカメラ制御性を25.5%向上させる。
論文 参考訳(メタデータ) (2024-10-21T12:36:27Z) - Deep Event-based Object Detection in Autonomous Driving: A Survey [7.197775088663435]
イベントカメラは、低レイテンシ、高ダイナミックレンジ、低消費電力のために、自動運転のための有望なセンサーとして登場した。
本稿では,自律走行におけるイベントデータを用いた物体検出の概要について述べる。
論文 参考訳(メタデータ) (2024-05-07T04:17:04Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Learning to Find Missing Video Frames with Synthetic Data Augmentation:
A General Framework and Application in Generating Thermal Images Using RGB
Cameras [0.0]
本稿では,センサフレームレートのミスマッチによるデータ不足の問題に対処する。
本研究では, 条件付き生成逆数ネットワーク(cGAN)を用いて, 合成的かつ現実的な熱画像を作成することを提案する。
論文 参考訳(メタデータ) (2024-02-29T23:52:15Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。