論文の概要: OWLed: Outlier-weighed Layerwise Pruning for Efficient Autonomous Driving Framework
- arxiv url: http://arxiv.org/abs/2411.07711v1
- Date: Tue, 12 Nov 2024 10:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:20:09.424438
- Title: OWLed: Outlier-weighed Layerwise Pruning for Efficient Autonomous Driving Framework
- Title(参考訳): OWLed: 効率的な自律運転フレームワークのための外周方向のレイヤワイドプルーニング
- Authors: Jiaxi Li, Lu Yin, Xilu Wang,
- Abstract要約: 本稿では,効率的な自律運転フレームワーク Outlier-Weighed Layerwise Pruning であるOWLedを紹介する。
提案手法は,外乱特性の分布に基づいて,異なる層に対して一様でない空間比を割り当てる。
圧縮モデルが自律運転タスクに適合するようにするため、運転環境データをキャリブレーションとプルーニングの両方に組み込む。
- 参考スコア(独自算出の注目度): 3.8320050452121692
- License:
- Abstract: The integration of Large Language Models (LLMs) into autonomous driving systems offers promising enhancements in environmental understanding and decision-making. However, the substantial computational demands of deploying LLMs locally on vehicles render this approach unfeasible for real-world automotive applications. To address this challenge, we introduce OWLed, the Outlier-Weighed Layerwise Pruning for Efficient Autonomous Driving Framework that leverages outlier-weighted layerwise sparsity for model compression. Our method assigns non-uniform sparsity ratios to different layers based on the distribution of outlier features, significantly reducing the model size without the need for fine-tuning. To ensure the compressed model adapts well to autonomous driving tasks, we incorporate driving environment data into both the calibration and pruning processes. Our empirical studies reveal that the encoder component is more sensitive to pruning than the LLM, highlighting its critical role in the system. Experimental results demonstrate that OWLed outperforms existing methods in perception, action prediction, and language understanding while substantially lowering computational requirements. These findings underscore the potential of combining advanced pruning techniques with LLMs to develop efficient and robust autonomous driving systems capable of handling complex scenarios. Code will be made publicly available.
- Abstract(参考訳): 大規模言語モデル(LLM)の自律運転システムへの統合は、環境理解と意思決定において有望な拡張を提供する。
しかし、LLMを車両にローカルに展開する際の計算上の要求は、このアプローチを現実世界の自動車アプリケーションでは実現不可能である。
この課題に対処するために、モデル圧縮に外周重み付け層幅を利用する、効率的な自律運転フレームワーク Outlier-Weighed Layerwise Pruning for Efficient Autonomous Driving Framework であるOWLedを紹介した。
提案手法は,外乱特性の分布に基づいて異なる層に不均一な間隔比を割り当て,微調整を必要とせずにモデルサイズを大幅に削減する。
圧縮モデルが自律運転タスクに適合するようにするため、運転環境データをキャリブレーションとプルーニングの両方に組み込む。
実験により, エンコーダはLLMよりもプルーニングに敏感であり, システムにおいて重要な役割を担っていることが明らかとなった。
実験の結果,OWLedは認識,行動予測,言語理解において,計算要求を大幅に低減しつつ,既存の手法よりも優れていた。
これらの知見は、複雑なシナリオを処理できる効率的で堅牢な自律運転システムを開発するために、先進的なプルーニング技術とLLMを組み合わせる可能性を示している。
コードは公開されます。
関連論文リスト
- DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Autonomous Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesデータセットで行った実験は、DiFSDの優れた計画性能と優れた効率を示す。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Towards Human-Like Driving: Active Inference in Autonomous Vehicle Control [0.5437298646956507]
本稿では,アクティブ推論の適用を通じて,自律走行車(AV)制御への新たなアプローチを提案する。
アクティブ推論(英: Active Inference)は、脳を予測機械として概念化する神経科学に由来する理論である。
提案手法は,深層学習と能動推論を統合してAVの側方制御を制御し,シミュレーション都市環境下で車線追従操作を行う。
論文 参考訳(メタデータ) (2024-07-10T14:08:27Z) - Tokenize the World into Object-level Knowledge to Address Long-tail Events in Autonomous Driving [43.156632952193966]
従来のエンド・ツー・エンドの運転モデルは、トレーニング・ディストリビューション内での珍しいまたは目に見えない入力のために、長い尾のイベントに悩まされる。
オブジェクトレベルの知識に世界をトークン化する新しい多モード大規模言語モデル(MM-LLM)であるTOKENを提案する。
ToKENは、従来のエンドツーエンドの駆動モデルを活用することにより、データの不足と非効率なトークン化を効果的に軽減する。
論文 参考訳(メタデータ) (2024-07-01T04:34:50Z) - Unveiling LLM Mechanisms Through Neural ODEs and Control Theory [3.4039202831583903]
本研究では,Large Language Models(LLMs)における入力と出力の複雑な関係を明らかにするために,ニューラル正規微分方程式を用いる。
ニューラルネットワークは、LLM内のデータの継続的な進化を捉えるダイナミックモデルを提供することによって、この研究において重要な役割を担っている。
堅牢な制御メカニズムは、モデルのアウトプットを戦略的に調整するために適用され、高い品質と信頼性を維持するだけでなく、特定のパフォーマンス基準に従うことを保証する。
論文 参考訳(メタデータ) (2024-06-23T22:56:34Z) - RAG-Driver: Generalisable Driving Explanations with Retrieval-Augmented In-Context Learning in Multi-Modal Large Language Model [22.25903116720301]
説明責任は、信頼できる自律的な意思決定において重要な役割を果たす。
MLLM(Multi-Modal Large Language Model)の最近の進歩は、駆動エージェントとしての説明可能性を高める有望な可能性を示している。
提案するRAG-Driverは,高機能,説明性,一般化可能な自律運転にコンテキスト内学習を活用する,検索強化型多モード大言語モデルである。
論文 参考訳(メタデータ) (2024-02-16T16:57:18Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。