論文の概要: Learned Camera Gain and Exposure Control for Improved Visual Feature
Detection and Matching
- arxiv url: http://arxiv.org/abs/2102.04341v1
- Date: Mon, 8 Feb 2021 16:46:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:24:57.199361
- Title: Learned Camera Gain and Exposure Control for Improved Visual Feature
Detection and Matching
- Title(参考訳): 視覚特徴検出とマッチングを改善するための学習カメラ利得と露光制御
- Authors: Justin Tomasi, Brandon Wagstaff, Steven L. Waslander, Jonathan Kelly
- Abstract要約: 我々は、環境照明の変化を考慮に入れたデータ駆動型アプローチを探求し、ビジュアル・オドメトリー(VO)や視覚同時像定位マッピング(SLAM)で使用する画像の品質を改善した。
我々は、カメラゲインと露出時間パラメータを予測的に調整するために、深層畳み込みニューラルネットワークモデルを訓練する。
我々は、我々のネットワークが劇的な照明変化を予想し、補うことができるような、広範囲な実世界の実験を通して実証する。
- 参考スコア(独自算出の注目度): 12.870196901446208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Successful visual navigation depends upon capturing images that contain
sufficient useful information. In this paper, we explore a data-driven approach
to account for environmental lighting changes, improving the quality of images
for use in visual odometry (VO) or visual simultaneous localization and mapping
(SLAM). We train a deep convolutional neural network model to predictively
adjust camera gain and exposure time parameters such that consecutive images
contain a maximal number of matchable features. The training process is fully
self-supervised: our training signal is derived from an underlying VO or SLAM
pipeline and, as a result, the model is optimized to perform well with that
specific pipeline. We demonstrate through extensive real-world experiments that
our network can anticipate and compensate for dramatic lighting changes (e.g.,
transitions into and out of road tunnels), maintaining a substantially higher
number of inlier feature matches than competing camera parameter control
algorithms.
- Abstract(参考訳): 成功するビジュアルナビゲーションは、十分な有用な情報を含む画像のキャプチャに依存する。
本稿では,環境照明の変化を考慮したデータ駆動型手法を検討し,視覚オドメトリー (VO) や視覚同時局在化マッピング (SLAM) に用いる画像の品質を改善する。
重畳み込みニューラルネットワークモデルを訓練し、連続した画像が最大に適合する特徴量を含むように、カメラ利得と露光時間パラメータを予測的に調整する。
私たちのトレーニング信号は、基礎となるvoまたはslamパイプラインから派生しており、その結果、モデルは、その特定のパイプラインでうまく機能するように最適化されます。
私たちは、ネットワークが劇的な照明変化(例えば、道路トンネルへの遷移と出口)を予測し、補償することができる広範な実世界の実験を通じて実証し、競合するカメラパラメータ制御アルゴリズムよりも大幅に多くのインリエリピート機能マッチを維持します。
関連論文リスト
- Efficient Camera Exposure Control for Visual Odometry via Deep Reinforcement Learning [10.886819238167286]
本研究は、露光制御のためのエージェントの訓練に深層強化学習フレームワークを用いる。
トレーニングプロセスを容易にするために,軽量なイメージシミュレータを開発した。
VOシステムを強化するために異なるレベルの報酬関数が作成される。
論文 参考訳(メタデータ) (2024-08-30T04:37:52Z) - I$^2$-SLAM: Inverting Imaging Process for Robust Photorealistic Dense SLAM [10.464532720114052]
カジュアルビデオは、しばしば動きのぼやけや様々な外観に悩まされ、コヒーレントな3D視覚表現の最終的な品質を低下させる。
本稿では、線形HDR放射率マップを用いて測定値の収集を行うSLAMシステムに物理画像を統合することを提案する。
論文 参考訳(メタデータ) (2024-07-16T03:31:33Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - SONIC: Sonar Image Correspondence using Pose Supervised Learning for Imaging Sonars [21.36164161799472]
我々は,視点変化に耐えられる頑健な特徴対応を実現するために設計されたポーズ制御ネットワークSONICを紹介する。
本手法は,ソナー画像の対応生成における性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-10-23T15:21:46Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Spatio-Temporal Outdoor Lighting Aggregation on Image Sequences using
Transformer Networks [23.6427456783115]
本研究は,画像からのノイズ推定を集約した屋外照明推定に焦点をあてる。
ディープニューラルネットワークに基づく最近の研究は、単一画像の照明推定に有望な結果を示しているが、堅牢性に悩まされている。
画像シーケンスの角領域と時間領域でサンプリングされた複数の画像ビューからの照明推定値を組み合わせることで、この問題に対処する。
論文 参考訳(メタデータ) (2022-02-18T14:11:16Z) - Controllable Data Augmentation Through Deep Relighting [75.96144853354362]
我々は、既存のモデルが照度変化に不変である能力を改善するために、リライトを通じて様々な画像データセットを拡大する方法を探る。
我々は,エンコーダ・デコーダネットワークをベースとして,様々な入力シーンの照明の様々なバリエーションを迅速に生成できるツールを開発した。
パイプラインで拡張されたデータセットのモデルをトレーニングすることで、ローカライゼーションベンチマークでより高いパフォーマンスを実現することが可能であることを実証した。
論文 参考訳(メタデータ) (2021-10-26T20:02:51Z) - TransCamP: Graph Transformer for 6-DoF Camera Pose Estimation [77.09542018140823]
本稿では、カメラ再配置問題に対処するため、グラフトランスフォーマーバックボーン、すなわちTransCamPを用いたニューラルネットワークアプローチを提案する。
TransCamPは、画像の特徴、カメラポーズ情報、フレーム間の相対的なカメラモーションを、エンコードされたグラフ属性に効果的に融合する。
論文 参考訳(メタデータ) (2021-05-28T19:08:43Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。