論文の概要: ADS-Edit: A Multimodal Knowledge Editing Dataset for Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2503.20756v1
- Date: Wed, 26 Mar 2025 17:45:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:22:30.710027
- Title: ADS-Edit: A Multimodal Knowledge Editing Dataset for Autonomous Driving Systems
- Title(参考訳): ADS-Edit: 自律運転システムのためのマルチモーダル知識編集データセット
- Authors: Chenxi Wang, Jizhan Fang, Xiang Chen, Bozhong Tian, Ziwen Xu, Huajun Chen, Ningyu Zhang,
- Abstract要約: 大規模マルチモーダルモデル(LMM)は自律運転システム(ADS)において有望であることを示す
本稿では,モデル動作のターゲット変更を,完全なリトレーニングを必要とせずに行える知識編集手法を提案する。
ADSに特化して設計されたマルチモーダル知識編集データセットであるADS-Editを紹介する。
- 参考スコア(独自算出の注目度): 38.56967793184516
- License:
- Abstract: Recent advancements in Large Multimodal Models (LMMs) have shown promise in Autonomous Driving Systems (ADS). However, their direct application to ADS is hindered by challenges such as misunderstanding of traffic knowledge, complex road conditions, and diverse states of vehicle. To address these challenges, we propose the use of Knowledge Editing, which enables targeted modifications to a model's behavior without the need for full retraining. Meanwhile, we introduce ADS-Edit, a multimodal knowledge editing dataset specifically designed for ADS, which includes various real-world scenarios, multiple data types, and comprehensive evaluation metrics. We conduct comprehensive experiments and derive several interesting conclusions. We hope that our work will contribute to the further advancement of knowledge editing applications in the field of autonomous driving. Code and data are available in https://github.com/zjunlp/EasyEdit.
- Abstract(参考訳): 大規模マルチモーダルモデル(LMM)の最近の進歩は、自律運転システム(ADS)において有望であることを示している。
しかし、ADSへの直接的な適用は、交通知識の誤解、複雑な道路条件、車両の多様な状態といった課題によって妨げられている。
これらの課題に対処するため,本論文では,モデル動作のターゲット変更を可能にする知識編集手法を提案する。
また,ADSに特化して設計されたマルチモーダル知識編集データセットであるADS-Editを導入する。
我々は総合的な実験を行い、いくつかの興味深い結論を導いた。
我々は,自動運転分野における知識編集アプリケーションのさらなる進歩に,我々の研究が貢献することを期待している。
コードとデータはhttps://github.com/zjunlp/EasyEditで入手できる。
関連論文リスト
- The Role of World Models in Shaping Autonomous Driving: A Comprehensive Survey [50.62538723793247]
ドライビング・ワールド・モデル(DWM)は、ドライビング・プロセス中のシーンの進化を予測することに焦点を当てている。
DWM法は、自律運転システムが動的運転環境をよりよく知覚し、理解し、相互作用することを可能にする。
論文 参考訳(メタデータ) (2025-02-14T18:43:15Z) - Application of Multimodal Large Language Models in Autonomous Driving [1.8181868280594944]
マルチモーダル大言語モデルの実装について詳細な研究を行う。
自律運転におけるMLLMの性能の低下に対処する。
次に、シーン理解、予測、意思決定によってAD意思決定プロセスを分解する。
論文 参考訳(メタデータ) (2024-12-21T00:09:52Z) - DriveMM: All-in-One Large Multimodal Model for Autonomous Driving [63.882827922267666]
DriveMMは、画像やマルチビュービデオなどの多様なデータ入力を処理するために設計された、大規模なマルチモーダルモデルである。
我々は、6つの公開ベンチマークで評価を行い、未確認のデータセットでゼロショット転送を行い、DriveMMはすべてのタスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-10T17:27:32Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - Bayesian Optimization and Deep Learning forsteering wheel angle
prediction [58.720142291102135]
本研究の目的は,自動走行システムにおける操舵角度予測の精度の高いモデルを得ることである。
BOは限られた試行数で、BOST-LSTMと呼ばれるモデルを特定し、古典的なエンドツーエンド駆動モデルと比較して最も正確な結果を得た。
論文 参考訳(メタデータ) (2021-10-22T15:25:14Z) - Shared Cross-Modal Trajectory Prediction for Autonomous Driving [24.07872495811019]
本稿では,複数入力モダリティの利用のメリットを活かしたクロスモーダルな埋め込みフレームワークを提案する。
2つのベンチマーク駆動データセットを用いて,提案手法の有効性を示すため,広範囲な評価を行った。
論文 参考訳(メタデータ) (2020-11-15T07:18:50Z) - Hidden Incentives for Auto-Induced Distributional Shift [11.295927026302573]
本稿では,ADS(Auto-induced Distributional shift)という用語を導入し,アルゴリズムが自身の入力の分布に変化をもたらす現象について述べる。
私たちのゴールは、機械学習システムがADSを活用しないことを保証し、実行時にパフォーマンスを向上させることです。
メタ学習の導入などの学習アルゴリズムの変更は、自動誘導分布シフト(HI-ADS)に隠れたインセンティブをもたらす可能性があることを実証する。
論文 参考訳(メタデータ) (2020-09-19T03:31:27Z) - Shared Cross-Modal Trajectory Prediction for Autonomous Driving [24.07872495811019]
本稿では,複数入力モダリティの利用のメリットを活かしたクロスモーダルな埋め込みフレームワークを提案する。
2つのベンチマーク駆動データセットを用いて,提案手法の有効性を示すため,広範囲な評価を行った。
論文 参考訳(メタデータ) (2020-04-01T02:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。