論文の概要: Camera Condition Monitoring and Readjustment by means of Noise and Blur
- arxiv url: http://arxiv.org/abs/2112.05456v1
- Date: Fri, 10 Dec 2021 11:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 20:27:33.455132
- Title: Camera Condition Monitoring and Readjustment by means of Noise and Blur
- Title(参考訳): ノイズとぼやきによるカメラ状態のモニタリングと再調整
- Authors: Maik Wischow and Guillermo Gallego and Ines Ernst and Anko B\"orner
- Abstract要約: カメラは適切な機能を維持し、必要に応じて自動的な対策を講じなければならない。
本稿では,データおよび物理モデルに基づくカメラの汎用的かつ解釈可能なセルフヘルス・メンテナンス・フレームワークを提案する。
我々のフレームワークは、カメラの健康を評価・維持するための実用的な準備可能なソリューションを提供するだけでなく、より高度な問題に対処するための拡張の基盤としても機能する。
- 参考スコア(独自算出の注目度): 10.475998113861895
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Autonomous vehicles and robots require increasingly more robustness and
reliability to meet the demands of modern tasks. These requirements specially
apply to cameras because they are the predominant sensors to acquire
information about the environment and support actions. A camera must maintain
proper functionality and take automatic countermeasures if necessary. However,
there is little work that examines the practical use of a general condition
monitoring approach for cameras and designs countermeasures in the context of
an envisaged high-level application. We propose a generic and interpretable
self-health-maintenance framework for cameras based on data- and
physically-grounded models. To this end, we determine two reliable, real-time
capable estimators for typical image effects of a camera in poor condition
(defocus blur, motion blur, different noise phenomena and most common
combinations) by comparing traditional and retrained machine learning-based
approaches in extensive experiments. Furthermore, we demonstrate how one can
adjust the camera parameters (e.g., exposure time and ISO gain) to achieve
optimal whole-system capability based on experimental (non-linear and
non-monotonic) input-output performance curves, using object detection, motion
blur and sensor noise as examples. Our framework not only provides a practical
ready-to-use solution to evaluate and maintain the health of cameras, but can
also serve as a basis for extensions to tackle more sophisticated problems that
combine additional data sources (e.g., sensor or environment parameters)
empirically in order to attain fully reliable and robust machines.
- Abstract(参考訳): 自動運転車とロボットは、現代のタスクの要求を満たすために、ますます堅牢さと信頼性を必要としている。
これらの要件は、特にカメラに当てはまる。それは、環境やサポートアクションに関する情報を取得するための主要なセンサーである。
カメラは適切な機能を維持し、必要に応じて自動的な対策を講じなければならない。
しかし、カメラの一般的な状態監視手法の実用化や、監視された高レベルアプリケーションのコンテキストにおける対策について検討する作業はほとんどない。
本稿では,データおよび物理モデルに基づくカメラの汎用的かつ解釈可能な自己維持フレームワークを提案する。
そこで我々は,従来型と再学習型機械学習によるアプローチを広範囲な実験で比較することにより,カメラの映像効果の信頼性とリアルタイム性を評価する2つの手法(デフォーカスボケ,モーションボケ,ノイズ現象,および最も一般的な組み合わせ)を決定する。
さらに,カメラパラメータ(露出時間やiso利得など)を調整して,オブジェクト検出,モーションボケ,センサノイズを例として,実験的(非線形,非単調)入出力性能曲線に基づく最適システム機能を実現する方法を示す。
我々のフレームワークは、カメラの健康を評価・維持するための実用的な準備可能なソリューションを提供するだけでなく、完全な信頼性と堅牢なマシンを達成するために、追加のデータソース(センサや環境パラメータなど)を経験的に組み合わせた、より高度な問題に対処するための基盤としても機能する。
関連論文リスト
- CamI2V: Camera-Controlled Image-to-Video Diffusion Model [11.762824216082508]
本稿では,明示的な物理的制約をモデル設計に統合する必要性を強調した。
ノイズ条件の新たな視点から,すべてのクロスフレーム関係をモデル化するためのエピポーラアテンションを提案する。
領域外画像への強い一般化を維持しつつ、RealEstate10K上でのカメラ制御性を25.5%向上させる。
論文 参考訳(メタデータ) (2024-10-21T12:36:27Z) - Deep Event-based Object Detection in Autonomous Driving: A Survey [7.197775088663435]
イベントカメラは、低レイテンシ、高ダイナミックレンジ、低消費電力のために、自動運転のための有望なセンサーとして登場した。
本稿では,自律走行におけるイベントデータを用いた物体検出の概要について述べる。
論文 参考訳(メタデータ) (2024-05-07T04:17:04Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Learning to Find Missing Video Frames with Synthetic Data Augmentation:
A General Framework and Application in Generating Thermal Images Using RGB
Cameras [0.0]
本稿では,センサフレームレートのミスマッチによるデータ不足の問題に対処する。
本研究では, 条件付き生成逆数ネットワーク(cGAN)を用いて, 合成的かつ現実的な熱画像を作成することを提案する。
論文 参考訳(メタデータ) (2024-02-29T23:52:15Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。