論文の概要: Accelerating Structured Chain-of-Thought in Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2602.02864v1
- Date: Mon, 02 Feb 2026 22:14:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.114666
- Title: Accelerating Structured Chain-of-Thought in Autonomous Vehicles
- Title(参考訳): 自動運転車における構造チェーンの高速化
- Authors: Yi Gu, Yan Wang, Yuxiao Chen, Yurong You, Wenjie Luo, Yue Wang, Wenhao Ding, Boyi Li, Heng Yang, Boris Ivanovic, Marco Pavone,
- Abstract要約: チェーン・オブ・ソート(CoT)推論は、自律運転における視覚言語行動モデルの意思決定能力を高める。
FastDriveCoTはテンプレート構造CoTを高速化する新しい並列復号法である。
- 参考スコア(独自算出の注目度): 55.78214218065611
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Chain-of-Thought (CoT) reasoning enhances the decision-making capabilities of vision-language-action models in autonomous driving, but its autoregressive nature introduces significant inference latency, making it impractical for real-time applications. To address this, we introduce FastDriveCoT, a novel parallel decoding method that accelerates template-structured CoT. Our approach decomposes the reasoning process into a dependency graph of distinct sub-tasks, such as identifying critical objects and summarizing traffic rules, some of which can be generated in parallel. By generating multiple independent reasoning steps concurrently within a single forward pass, we significantly reduce the number of sequential computations. Experiments demonstrate a 3-4$\times$ speedup in CoT generation and a substantial reduction in end-to-end latency across various model architectures, all while preserving the original downstream task improvements brought by incorporating CoT reasoning.
- Abstract(参考訳): CoT(Chain-of-Thought)推論は、自律運転における視覚言語行動モデルの意思決定能力を向上するが、その自己回帰性は大きな推論遅延をもたらし、リアルタイムアプリケーションでは実用的ではない。
そこで本研究では,テンプレート構造CoTを高速化する並列デコーディング手法であるFastDriveCoTを紹介する。
提案手法は,重要なオブジェクトの識別やトラフィックルールの要約など,異なるサブタスクの依存関係グラフに推論処理を分解し,その一部を並列に生成する。
1つのフォワードパス内で複数の独立した推論ステップを同時に生成することにより、逐次計算の回数を大幅に削減する。
実験では、CoT生成の3-4$\times$スピードアップと、さまざまなモデルアーキテクチャにおけるエンドツーエンドのレイテンシの大幅な削減が示されている。
関連論文リスト
- UniT: Unified Multimodal Chain-of-Thought Test-time Scaling [85.590774707406]
統一モデルは単一のアーキテクチャ内でマルチモーダル理解と生成の両方を扱うことができるが、通常は出力を反復的に書き換えることなく単一のパスで操作する。
マルチモーダルなテストタイムスケーリングのためのフレームワークであるUniTを導入し、単一の統一モデルで複数のラウンドをまたいだ推論、検証、精査を可能にします。
論文 参考訳(メタデータ) (2026-02-12T18:59:49Z) - ASPD: Unlocking Adaptive Serial-Parallel Decoding by Exploring Intrinsic Parallelism in LLMs [34.477777651648914]
大規模言語モデル(LLM)は、自動回帰デコードパラダイムのため、推論遅延の大きな問題を生じさせる。
本稿では、並列化可能なデータの自動構築と効率的な並列化機構の2つの課題に対処する適応シリアル-パラレルデコーディング(ASPD)を提案する。
我々のフレームワークは、効率的なLCM並列推論のための基盤となるベンチマークを設定し、AIによるカスタマーサービスボットや回答検索エンジンのようなレイテンシに敏感なアプリケーションへのデプロイの道を開く。
論文 参考訳(メタデータ) (2025-08-12T12:35:55Z) - R-Stitch: Dynamic Trajectory Stitching for Efficient Reasoning [80.104336426172]
CoT(Chain-of- Thought)は、大規模言語モデルの問題解決能力を高める。
CoTは長い自己回帰軌道のためにかなりの推論コストを発生させる。
トレーニング不要なハイブリッドデコーディングフレームワークであるR-Stitchを紹介する。
論文 参考訳(メタデータ) (2025-07-23T08:14:36Z) - Non-autoregressive Sequence-to-Sequence Vision-Language Models [59.445765313094434]
本稿では,デコーダ内の複数の推論経路をマージする並列デコードシーケンス・ツー・シーケンス・ビジョン言語モデルを提案する。
このモデルは最先端の自己回帰モデルと同等のパフォーマンスを実現するが、推論時間では高速である。
論文 参考訳(メタデータ) (2024-03-04T17:34:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。