論文の概要: Diffusion-Based Generation and Imputation of Driving Scenarios from Limited Vehicle CAN Data
- arxiv url: http://arxiv.org/abs/2509.12375v1
- Date: Mon, 15 Sep 2025 19:07:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.72945
- Title: Diffusion-Based Generation and Imputation of Driving Scenarios from Limited Vehicle CAN Data
- Title(参考訳): 限定車載CANデータからの拡散に基づく運転シナリオの生成と計算
- Authors: Julian Ripper, Ousama Esbel, Rafael Fietzek, Max Mühlhäuser, Thomas Kreutz,
- Abstract要約: 拡散モデルは、現実的で合成的なデータを生成するのに効果的であることが示されている。
自己回帰的手法と非自己回帰的手法を組み合わせたハイブリッドな生成手法を提案する。
我々の最良のモデルでは、トレーニングデータでさえも、身体的正確性の観点から上回ることができ、かつ、もっともらしい運転行動を示すことができる。
- 参考スコア(独自算出の注目度): 13.575299934411978
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Training deep learning methods on small time series datasets that also include corrupted samples is challenging. Diffusion models have shown to be effective to generate realistic and synthetic data, and correct corrupted samples through imputation. In this context, this paper focuses on generating synthetic yet realistic samples of automotive time series data. We show that denoising diffusion probabilistic models (DDPMs) can effectively solve this task by applying them to a challenging vehicle CAN-dataset with long-term data and a limited number of samples. Therefore, we propose a hybrid generative approach that combines autoregressive and non-autoregressive techniques. We evaluate our approach with two recently proposed DDPM architectures for time series generation, for which we propose several improvements. To evaluate the generated samples, we propose three metrics that quantify physical correctness and test track adherence. Our best model is able to outperform even the training data in terms of physical correctness, while showing plausible driving behavior. Finally, we use our best model to successfully impute physically implausible regions in the training data, thereby improving the data quality.
- Abstract(参考訳): 破損したサンプルを含む小さな時系列データセットでディープラーニングの手法を訓練することは困難である。
拡散モデルは実データや合成データを生成するのに有効であることが示されている。
本稿では,自動車時系列データの合成・現実的なサンプルを作成することに焦点を当てる。
本研究では,長期データと限られたサンプル数を持つ挑戦車両CANデータセットに適用することにより,拡散確率モデル (DDPM) を効果的に解くことができることを示す。
そこで本研究では,自己回帰的手法と非自己回帰的手法を組み合わせたハイブリッド生成手法を提案する。
我々は,最近提案された2つのDDPMアーキテクチャを用いて時系列生成のアプローチを評価し,いくつかの改良点を提案する。
生成したサンプルを評価するために,物理精度とテストトラックの付着度を定量化する3つの指標を提案する。
我々の最良のモデルでは、トレーニングデータでさえも、身体的正確性の観点から上回ることができ、かつ、もっともらしい運転行動を示すことができる。
最後に,本モデルを用いて,トレーニングデータ中の物理的に不可解な領域をインプットし,データ品質を向上させる。
関連論文リスト
- Data-Efficient Ensemble Weather Forecasting with Diffusion Models [5.03317364227682]
拡散モデルは一般的に自己回帰的であり、計算コストが高い。
これは、データが制限され、コストがかかり、作業が難しい気候科学における課題である。
我々は,複数のデータサンプリング戦略を評価し,簡単な時間的階層化サンプリング手法により,実データトレーニングと同等以上の性能が得られることを示す。
論文 参考訳(メタデータ) (2025-09-14T02:22:16Z) - When to Trust Your Data: Enhancing Dyna-Style Model-Based Reinforcement Learning With Data Filter [7.886307329450978]
ダイナスタイルのアルゴリズムは、推定環境モデルからのシミュレーションデータを用いてモデルフリートレーニングを加速することにより、2つのアプローチを組み合わせる。
これまでの作業では、モデルアンサンブルを使用したり、実際の環境から収集されたデータで推定されたモデルを事前訓練することで、この問題に対処している。
本研究では,実環境において収集したデータから大きく分岐する推定モデルからシミュレーションデータを除去するアウト・オブ・ディストリビューションデータフィルタを提案する。
論文 参考訳(メタデータ) (2024-10-16T01:49:03Z) - Synthetic Face Datasets Generation via Latent Space Exploration from Brownian Identity Diffusion [20.352548473293993]
我々は,大規模な合成顔データセットを生成することを目的とした,Langevin,Dispersion,DisCoという3つの補完アルゴリズムを導入する。
これを使って、顔データセットを複数生成し、顔認識モデルをトレーニングすることでそれらをベンチマークし、我々の方法で生成されたデータが、以前のGANベースデータセットのパフォーマンスを上回ることを示す。
拡散モデルはトレーニングデータを記憶するために示されるが、新しい合成データセットの漏洩を防止し、より責任のある合成データセットへの道を開く。
論文 参考訳(メタデータ) (2024-04-30T22:32:02Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - A Bayesian Generative Adversarial Network (GAN) to Generate Synthetic
Time-Series Data, Application in Combined Sewer Flow Prediction [3.3139597764446607]
機械学習では、生成モデル(generative model)は、データ分散を学習して人工データを生成する方法のクラスである。
本研究では,限られた時系列データのバランスをとるために,合成時系列を生成するGANモデルを開発した。
本研究の目的は, 降水量データを用いて流れを予測し, モデル性能における合成データを用いたデータ増大の影響を検討することである。
論文 参考訳(メタデータ) (2023-01-31T16:12:26Z) - Improving Maximum Likelihood Training for Text Generation with Density
Ratio Estimation [51.091890311312085]
本稿では,テキスト生成で遭遇する大規模なサンプル空間において,効率よく安定な自動回帰シーケンス生成モデルのトレーニング手法を提案する。
本手法は,品質と多様性の両面で,最大類似度推定や他の最先端シーケンス生成モデルよりも安定に優れている。
論文 参考訳(メタデータ) (2020-07-12T15:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。