論文の概要: Bridging Clear and Adverse Driving Conditions
- arxiv url: http://arxiv.org/abs/2508.13592v1
- Date: Tue, 19 Aug 2025 07:58:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.834455
- Title: Bridging Clear and Adverse Driving Conditions
- Title(参考訳): ブリッジクリア・リバース運転条件
- Authors: Yoel Shapiro, Yahia Showgan, Koustav Mullick,
- Abstract要約: ドメイン適応パイプラインは、透明な天候の画像を霧、雨、雪、夜間の画像に変換する。
我々は、既存のDA GANを活用し、補助的な入力をサポートするように拡張し、シミュレーションと実画像の両方を活用する新しいトレーニングレシピを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous Driving (AD) systems exhibit markedly degraded performance under adverse environmental conditions, such as low illumination and precipitation. The underrepresentation of adverse conditions in AD datasets makes it challenging to address this deficiency. To circumvent the prohibitive cost of acquiring and annotating adverse weather data, we propose a novel Domain Adaptation (DA) pipeline that transforms clear-weather images into fog, rain, snow, and nighttime images. Here, we systematically develop and evaluate several novel data-generation pipelines, including simulation-only, GAN-based, and hybrid diffusion-GAN approaches, to synthesize photorealistic adverse images from labelled clear images. We leverage an existing DA GAN, extend it to support auxiliary inputs, and develop a novel training recipe that leverages both simulated and real images. The simulated images facilitate exact supervision by providing perfectly matched image pairs, while the real images help bridge the simulation-to-real (sim2real) gap. We further introduce a method to mitigate hallucinations and artifacts in Stable-Diffusion Image-to-Image (img2img) outputs by blending them adaptively with their progenitor images. We finetune downstream models on our synthetic data and evaluate them on the Adverse Conditions Dataset with Correspondences (ACDC). We achieve 1.85 percent overall improvement in semantic segmentation, and 4.62 percent on nighttime, demonstrating the efficacy of our hybrid method for robust AD perception under challenging conditions.
- Abstract(参考訳): 自律運転システム(AD)は、低照度や降水などの環境条件下で著しく劣化した性能を示す。
ADデータセットの悪い条件の表現不足は、この欠陥に対処することを困難にしている。
悪天候データを取得して注釈を付けることの禁止コストを回避するため,クリーンウェザー画像から霧,雨,雪,夜間画像へ変換する新しいドメイン適応パイプラインを提案する。
そこで,本研究では,シミュレーション専用,GANベース,ハイブリッド拡散GANアプローチなどの新しいデータ生成パイプラインを体系的に開発,評価し,ラベル付き透明画像からフォトリアリスティックな有害画像を合成する。
我々は、既存のDA GANを活用し、補助的な入力をサポートするように拡張し、シミュレーションと実画像の両方を活用する新しいトレーニングレシピを開発した。
シミュレーション画像は、完全に一致した画像ペアを提供することで、正確な監視を促進する一方、実際の画像はシミュレーションと現実の(シミュレートされた)ギャップを埋めるのに役立つ。
さらに,前駆体画像と適応的に混合することにより,安定拡散画像(img2img)出力における幻覚や人工物を緩和する手法についても紹介する。
我々は、合成データに基づいて下流のモデルを微調整し、それをACDC(Adverse Conditions Dataset with Cor correspondingences)で評価する。
我々は,夜間におけるセマンティックセグメンテーションの全体的な改善を1.85パーセント,夜間に4.62パーセント達成し,困難条件下での頑健なAD知覚に対するハイブリッド手法の有効性を実証した。
関連論文リスト
- Residual-based Efficient Bidirectional Diffusion Model for Image Dehazing and Haze Generation [17.043633726365233]
現在のディープデヘイズ法は、ヘイズフリー画像とヘイズフリー画像の翻訳能力に欠け、ヘイズ画像からヘイズを除去することのみに焦点を当てている。
本研究では, 残差に基づく効率的な双方向拡散モデル (RBDM) を提案し, 脱ハジングとヘイズ生成の両方の条件分布をモデル化する。
RBDMは,15ステップのサンプリングで,ヘイズフリー画像とヘイズ画像の双方向化を実現することに成功した。
論文 参考訳(メタデータ) (2025-08-15T01:00:15Z) - Learning from Rendering: Realistic and Controllable Extreme Rainy Image Synthesis for Autonomous Driving Simulation [8.83009075528098]
極度の気象条件、特に極度の降雨は、現実世界の設定で捉えるのに稀で費用がかかる。
既存の雨のイメージシンセサイザーは、照明と制限されたリアリズムに対して制御性に欠けることが多い。
本稿では,レンダリングに基づく手法の利点と学習に基づく手法の制御性を組み合わせた,レンダリングからの学習型降雨画像合成器を提案する。
論文 参考訳(メタデータ) (2025-02-23T03:28:50Z) - Exposure Bracketing Is All You Need For A High-Quality Image [50.822601495422916]
マルチ露光画像は、デノイング、デブロアリング、高ダイナミックレンジイメージング、超解像において相補的である。
本研究では,これらの課題を組み合わせ,高品質な画像を得るために露光ブラケット写真を活用することを提案する。
特に時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - DiffCR: A Fast Conditional Diffusion Framework for Cloud Removal from
Optical Satellite Images [27.02507384522271]
本稿では,光衛星画像の高速クラウド除去に深部畳み込みネットワークを用いた条件付き拡散を利用したDiffCRという新しいフレームワークを提案する。
条件付き特徴抽出のための分離エンコーダを導入し、条件付き入力と合成出力との外観情報の密接な類似性を確保するために、ロバストな色表現を提供する。
論文 参考訳(メタデータ) (2023-08-08T17:34:28Z) - Dual-Scale Single Image Dehazing Via Neural Augmentation [29.019279446792623]
モデルベースとデータ駆動のアプローチを組み合わせることで,新しい単一画像デハージングアルゴリズムを導入する。
その結果,提案アルゴリズムは実世界および合成ヘイズ画像からヘイズをうまく除去できることが示唆された。
論文 参考訳(メタデータ) (2022-09-13T11:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。