論文の概要: Estimating Fog Parameters from a Sequence of Stereo Images
- arxiv url: http://arxiv.org/abs/2511.20865v1
- Date: Tue, 25 Nov 2025 21:25:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.868824
- Title: Estimating Fog Parameters from a Sequence of Stereo Images
- Title(参考訳): ステレオ画像からの霧パラメータの推定
- Authors: Yining Ding, João F. C. Mota, Andrew M. Wallace, Sen Wang,
- Abstract要約: ステレオフォッギー画像の系列を考慮し,霧モデルのパラメータを推定し,それらを動的に更新する手法を提案する。
パラメータを逐次推定する従来の手法とは対照的に,アルゴリズムは新たな最適化問題を解くことにより,全てのパラメータを同時に推定する。
提案アルゴリズムは,霧の存在下での既存の視覚的局所化マッピング(SLAM)やオドメトリーシステムにおいて,アドオンモジュールとして容易に利用することができる。
- 参考スコア(独自算出の注目度): 8.583016330401971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method which, given a sequence of stereo foggy images, estimates the parameters of a fog model and updates them dynamically. In contrast with previous approaches, which estimate the parameters sequentially and thus are prone to error propagation, our algorithm estimates all the parameters simultaneously by solving a novel optimisation problem. By assuming that fog is only locally homogeneous, our method effectively handles real-world fog, which is often globally inhomogeneous. The proposed algorithm can be easily used as an add-on module in existing visual Simultaneous Localisation and Mapping (SLAM) or odometry systems in the presence of fog. In order to assess our method, we also created a new dataset, the Stereo Driving In Real Fog (SDIRF), consisting of high-quality, consecutive stereo frames of real, foggy road scenes under a variety of visibility conditions, totalling over 40 minutes and 34k frames. As a first-of-its-kind, SDIRF contains the camera's photometric parameters calibrated in a lab environment, which is a prerequisite for correctly applying the atmospheric scattering model to foggy images. The dataset also includes the counterpart clear data of the same routes recorded in overcast weather, which is useful for companion work in image defogging and depth reconstruction. We conducted extensive experiments using both synthetic foggy data and real foggy sequences from SDIRF to demonstrate the superiority of the proposed algorithm over prior methods. Our method not only produces the most accurate estimates on synthetic data, but also adapts better to real fog. We make our code and SDIRF publicly available\footnote{https://github.com/SenseRoboticsLab/estimating-fog-parameters} to the community with the aim of advancing the research on visual perception in fog.
- Abstract(参考訳): ステレオフォッギー画像の系列を考慮し,霧モデルのパラメータを推定し,それらを動的に更新する手法を提案する。
パラメータを逐次推定する従来の手法とは対照的に,アルゴリズムは新たな最適化問題を解くことにより,全てのパラメータを同時に推定する。
霧は局所的に均質であると仮定することで,実世界の霧を効果的に処理することができる。
提案アルゴリズムは,霧の存在下での既存の視覚的局所化マッピング(SLAM)やオドメトリーシステムにおいて,アドオンモジュールとして容易に利用することができる。
また,本手法を評価するために,40分以上,34kフレーム以上の視認性条件下で,現実の霧の多い道路シーンの高品質で連続的なステレオフレームで構成されたStereo Driving In Real Fog (SDIRF) という新たなデータセットも作成した。
第一種として、SDIRFは、大気散乱モデルを霧画像に正しく適用するための前提条件である実験室環境で調整されたカメラの測光パラメータを含んでいる。
データセットには、オーバーキャストの天候で記録された同じルートの明確なデータも含まれている。
我々は,SDIRFからの合成霧データと実霧データの両方を用いて,従来手法よりも提案アルゴリズムの優位性を実証する広範囲な実験を行った。
本手法は, 合成データから最も正確な推定値を生成するだけでなく, 実際の霧に適応する。
われわれのコードとSDIRFを公開している:footnote{https://github.com/SenseRoboticsLab/estimating-fog-parameters} は、霧の中の視覚的知覚の研究を促進することを目的として、コミュニティに提供します。
関連論文リスト
- Bridging Clear and Adverse Driving Conditions [0.0]
ドメイン適応パイプラインは、透明な天候の画像を霧、雨、雪、夜間の画像に変換する。
我々は、既存のDA GANを活用し、補助的な入力をサポートするように拡張し、シミュレーションと実画像の両方を活用する新しいトレーニングレシピを開発した。
論文 参考訳(メタデータ) (2025-08-19T07:58:05Z) - DehazeGS: Seeing Through Fog with 3D Gaussian Splatting [17.119969983512533]
DehazeGSは,霧のない背景をメディアから分解・レンダリングできる手法である。
合成と実世界の霧のデータセットの実験は、DehazeGSが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-01-07T09:47:46Z) - SynFog: A Photo-realistic Synthetic Fog Dataset based on End-to-end Imaging Simulation for Advancing Real-World Defogging in Autonomous Driving [48.27575423606407]
フォトリアリスティックな霧画像を生成するために,エンド・ツー・エンドのシミュレーションパイプラインを導入する。
我々は、スカイライトとアクティブな照明条件の両方を特徴とするSynFogという新しい合成霧データセットを提案する。
実験の結果,SynFogで訓練したモデルでは,視覚知覚と検出精度が優れていた。
論文 参考訳(メタデータ) (2024-03-25T18:32:41Z) - FogGuard: guarding YOLO against fog using perceptual loss [5.868532677577194]
FogGuard(フォグガード)は、霧の天候によって引き起こされる課題に対処するために設計された、霧を意識した物体検出ネットワークである。
FogGuardは、YOLOv3をベースラインアルゴリズムとして組み込むことで、シーン内の霧の状態を補償する。
我々のネットワークは、RTTSデータセット上でのYOLOv3の57.78%と比較して、69.43%のmAPを達成した。
論文 参考訳(メタデータ) (2024-03-13T20:13:25Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - 3D Human Pose and Shape Regression with Pyramidal Mesh Alignment
Feedback Loop [128.07841893637337]
回帰に基づく手法は最近、単眼画像からヒトのメッシュを再構成する有望な結果を示した。
パラメータの小さな偏差は、推定メッシュと画像のエビデンスの間に顕著な不一致を引き起こす可能性がある。
本稿では,特徴ピラミッドを活用し,予測パラメータを補正するために,ピラミッドメッシュアライメントフィードバック(pymaf)ループを提案する。
論文 参考訳(メタデータ) (2021-03-30T17:07:49Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。