論文の概要: Foundation CAN LM: A Pretrained Language Model For Automotive CAN Data
- arxiv url: http://arxiv.org/abs/2602.00866v1
- Date: Sat, 31 Jan 2026 19:00:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.441439
- Title: Foundation CAN LM: A Pretrained Language Model For Automotive CAN Data
- Title(参考訳): Foundation CAN LM: 自動車用CANデータのための事前訓練言語モデル
- Authors: Akiharu Esashi, Pawissanutt Lertpongrujikorn, Justin Makino, Yuibi Fujimoto, Mohsen Amini Salehi,
- Abstract要約: Controller Area Network (CAN) バスは、自動車および自動車保険分野における応用のための車両信号の豊富な供給源を提供する。
既存のパイプラインは、主に、生のCANデータに基づいて、独立したタスク固有のモデルをトレーニングする。
本稿では,CANモデルの基本パラダイム,大規模事前学習,タスク固有の適応について紹介する。
- 参考スコア(独自算出の注目度): 1.1091582432763738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Controller Area Network (CAN) bus provides a rich source of vehicular signals increasingly leveraged for applications in automotive and auto insurance domains, including collision detection, predictive maintenance, and driver risk modeling. Despite this potential, existing pipelines largely train isolated task-specific models on raw CAN data, with only limited efforts exploring decoded signals. Such fragmentation prevents shared representation learning and limits cross-task generalization. By contrast, natural language processing (NLP) and computer vision (CV) have been transformed by the foundation model paradigm: large-scale pretraining followed by task-specific adaptation. In this work, we introduce the foundation CAN model that demonstrates multi-objective downstream generalization using a single pretrained backbone. Our approach treats CAN data as a language: we pretrain on large-scale, unlabeled decoded CAN signals and fine-tune across heterogeneous auto insurance tasks. To enable this, we propose a unified tokenization scheme for mixed discrete-continuous signals and address challenges of temporal complexity and trip-specific variability. Our results show that one pretrained CAN model can adapt effectively to diverse predictive tasks, validating that the foundation modeling paradigm, proven in NLP and CV, also holds for CAN data. This establishes a new direction for generalizable representation learning in automotive AI.
- Abstract(参考訳): Controller Area Network (CAN) バスは、衝突検出、予測保守、運転者リスクモデリングなど、自動車や自動車保険分野の応用にますます活用される車両信号の豊富な情報源を提供する。
この可能性にもかかわらず、既存のパイプラインは、主に生のCANデータ上で独立したタスク固有のモデルをトレーニングし、復号化信号の探索に限定している。
このような断片化は共有表現学習を防ぎ、クロスタスクの一般化を制限する。
対照的に、自然言語処理(NLP)とコンピュータビジョン(CV)は、大規模事前学習とタスク固有の適応という基礎モデルパラダイムによって変換されている。
本研究では,1つの事前学習されたバックボーンを用いて,多目的下流の一般化を実証する基礎的CANモデルを提案する。
当社のアプローチはCANデータを言語として扱い,大規模かつラベルなしのCAN信号の事前学習と,異種自動車保険業務における微調整を行う。
これを実現するために、混合離散連続信号の統一トークン化方式を提案し、時間的複雑さと旅行特有変数の課題に対処する。
この結果から,NLPおよびCVで実証された基礎モデリングパラダイムが,CANデータにも有効であることを示す。
これにより、自動車AIにおける一般化可能な表現学習の新しい方向性が確立される。
関連論文リスト
- Every Step Counts: Decoding Trajectories as Authorship Fingerprints of dLLMs [63.82840470917859]
本稿では,dLLMの復号化機構をモデル属性の強力なツールとして利用できることを示す。
本稿では、デコードステップ間の構造的関係を捉え、モデル固有の振る舞いをよりよく明らかにする、DDM(Directed Decoding Map)と呼ばれる新しい情報抽出手法を提案する。
論文 参考訳(メタデータ) (2025-10-02T06:25:10Z) - Re:Form -- Reducing Human Priors in Scalable Formal Software Verification with RL in LLMs: A Preliminary Study on Dafny [78.1575956773948]
強化学習(RL)で訓練された大規模言語モデル(LLM)は、信頼性も拡張性もない、という大きな課題に直面している。
有望だが、ほとんど報われていない代替手段は、フォーマルな言語ベースの推論である。
生成モデルが形式言語空間(例えばダフニー)で機能する厳密な形式体系におけるLLMの接地は、それらの推論プロセスと結果の自動的かつ数学的に証明可能な検証を可能にする。
論文 参考訳(メタデータ) (2025-07-22T08:13:01Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Scanflow: A multi-graph framework for Machine Learning workflow
management, supervision, and debugging [0.0]
本稿では,エンドツーエンドの機械学習ワークフロー管理を支援するコンテナ化指向グラフフレームワークを提案する。
このフレームワークは、コンテナ内でMLを定義してデプロイし、メタデータを追跡し、本番環境での振る舞いを確認し、学習された知識と人為的な知識を使用してモデルを改善する。
論文 参考訳(メタデータ) (2021-11-04T17:01:12Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。