論文の概要: AI-Driven Predictive Maintenance with Real-Time Contextual Data Fusion for Connected Vehicles: A Multi-Dataset Evaluation
- arxiv url: http://arxiv.org/abs/2603.13343v1
- Date: Sat, 07 Mar 2026 06:08:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.101185
- Title: AI-Driven Predictive Maintenance with Real-Time Contextual Data Fusion for Connected Vehicles: A Multi-Dataset Evaluation
- Title(参考訳): 実時間コンテキストデータフュージョンを用いたAI駆動型コネクテッドカーの予測保守:マルチデータセット評価
- Authors: Kushal Khemani, Anjum Nazir Qureshi,
- Abstract要約: 本稿では,V2X強化予測維持のためのシミュレーション検証型概念実証フレームワークを提案する。
オンボードセンサーストリームと外部のコンテキスト信号を統合する。
エッジ推論では、レイテンシを3.5sから1.0s以下に削減すると見積もられている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most vehicle predictive maintenance systems rely exclusively on internal diagnostic signals and are validated on deterministic synthetic data, limiting the credibility of reported metrics. This paper presents a simulation-validated proof-of-concept framework for V2X-augmented predictive maintenance, integrating on-board sensor streams with external contextual signals -- road quality, weather, traffic density, and driver behaviour -- acquired via V2X communication and third-party APIs, with inference at the vehicle edge. Field validation on instrumented vehicles is identified as the required next step. Three experiments address common shortcomings of prior work. A feature group ablation study shows that V2X contextual features contribute a 2.6-point F1 gain, with full context removal reducing macro F1 from 0.855 to 0.807. On the AI4I 2020 real-world industrial failure dataset (10,000 samples, five failure modes), LightGBM achieves AUC-ROC of 0.973 under 5-fold stratified CV with SMOTE confined to training folds. A noise sensitivity analysis shows macro F1 remains above 0.88 under low noise and degrades to 0.74 under very high noise. SHAP analysis confirms that V2X and engineered interaction features rank among the top 15 predictors. Edge inference is estimated to reduce latency from 3.5s to under 1.0s versus cloud-only processing.
- Abstract(参考訳): ほとんどの車両の予測メンテナンスシステムは、内部診断信号のみに依存しており、決定論的合成データに基づいて検証されており、報告されたメトリクスの信頼性を制限している。
本稿では,V2X通信とサードパーティのAPIを介して,車載センサストリームと道路品質,天気,交通密度,運転行動といった外部のコンテキスト信号を統合し,車両のエッジに推論することで,V2Xによる予測メンテナンスを実現するためのシミュレーション検証・オブ・コンセプトフレームワークを提案する。
計測車両のフィールド検証は、次のステップとして特定される。
3つの実験は、先行研究の共通の欠点に対処する。
特徴群アブレーション研究では、V2Xの文脈特徴が2.6ポイントのF1ゲインに寄与し、フルコンテキスト除去マクロF1が0.855から0.807に減少している。
AI4I 2020の実際の産業失敗データセット(10,000のサンプル、5つの障害モード)では、LightGBMは5倍の層状CV下でAUC-ROCの0.973を達成し、SMOTEは折りたたみ訓練に限られている。
ノイズ感度分析では、マクロF1は低雑音下で0.88以上であり、非常に高雑音下では0.74まで低下する。
SHAP分析は、V2Xとエンジニアリングされた相互作用が上位15の予測器の中でランク付けされていることを確認した。
エッジ推論では、レイテンシを3.5sから1.0s以下に削減すると見積もられている。
関連論文リスト
- Do Generative Metrics Predict YOLO Performance? An Evaluation Across Models, Augmentation Ratios, and Dataset Complexity [43.338311770275745]
本報告では, YOLOv11の合成増強の制御された評価法について述べる。
実際のトレーニングスプリットの10%から150%の増大率に対して, GAN, 拡散, ハイブリッドベースの6つのジェネレータをベンチマークした。
データセット生成/拡張設定毎に、マッチしたサイズのブートストラッププロトコルで事前トレーニングデータセットメトリクスを計算する。
論文 参考訳(メタデータ) (2026-02-20T03:02:36Z) - Benchmarking IoT Time-Series AD with Event-Level Augmentations [34.864214444544565]
実世界の問題をシミュレートする統合されたイベントレベル拡張による評価プロトコルを提案する。
5つの公開異常データセット上で14の代表的なモデルを評価する。
論文 参考訳(メタデータ) (2026-02-17T09:45:44Z) - Learning-based Radio Link Failure Prediction Based on Measurement Dataset in Railway Environments [46.243901410461596]
CNN、LSTM、XGBoost、Anomaly Transformer、PatchTST、TimesNetの6つのモデルをベンチマークする。
その結果,商用デバイスで利用可能な軽量機能を用いて,信頼性の低下を事前に予測できることが示唆された。
論文 参考訳(メタデータ) (2025-11-12T00:13:37Z) - Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving in the Long Tail [85.47497935739936]
Alpamayo-R1 (AR1) は、因果推論の連鎖と軌道計画を統合する視覚言語モデルである。
また,AR1は,軌道のみのベースラインに比べて,難問の計画精度が12%向上することを示した。
今後のアップデートで、AR1モデルとCoCのサブセットをリリースする予定です。
論文 参考訳(メタデータ) (2025-10-30T01:25:34Z) - Strategic Fusion of Vision Language Models: Shapley-Credited Context-Aware Dawid-Skene for Multi-Label Tasks in Autonomous Driving [5.508731861264645]
大規模視覚言語モデル(VLM)は、自律車載スタックでの使用が増えているが、幻覚によって安全クリティカルパイプラインの信頼性が制限されている。
本稿では,エゴビュー・ダシュカムビデオのマルチラベル理解のためのゲーム理論融合法である,Shapley-credited Context-Aware Dawid-Skene with Agreementを提案する。
論文 参考訳(メタデータ) (2025-10-01T17:14:11Z) - Investigating Traffic Accident Detection Using Multimodal Large Language Models [3.4123736336071864]
本研究では,交通事故の検出と記述を行うマルチモーダル大規模言語モデル(MLLM)のゼロショット機能について検討する。
その結果、PixtralはF1スコア71%、リコール83%のトップパフォーマーとなった。
これらの結果は、MLLMと高度な視覚分析技術の統合の可能性を示している。
論文 参考訳(メタデータ) (2025-09-23T14:47:33Z) - EffiComm: Bandwidth Efficient Multi Agent Communication [11.311414617703308]
協調認識により、接続された車両はセンサー情報を交換し、各車両の盲点を克服することができる。
EffiCommは、最先端の3Dオブジェクト検出精度を維持しながら、先行技術で要求されるデータの40%未満を送信するエンドツーエンドフレームワークである。
論文 参考訳(メタデータ) (2025-07-25T15:03:26Z) - Phikon-v2, A large and public feature extractor for biomarker prediction [42.52549987351643]
我々は、DINOv2を用いて視覚変換器を訓練し、このモデルの1つのイテレーションを公開して、Phikon-v2と呼ばれるさらなる実験を行う。
Phikon-v2は、公開されている組織学のスライドをトレーニングしながら、以前リリースしたモデル(Phikon)を上回り、プロプライエタリなデータでトレーニングされた他の病理学基盤モデル(FM)と同等に動作します。
論文 参考訳(メタデータ) (2024-09-13T20:12:29Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。