論文の概要: X-Blocks: Linguistic Building Blocks of Natural Language Explanations for Automated Vehicles
- arxiv url: http://arxiv.org/abs/2602.13248v1
- Date: Mon, 02 Feb 2026 07:18:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.586653
- Title: X-Blocks: Linguistic Building Blocks of Natural Language Explanations for Automated Vehicles
- Title(参考訳): X-Blocks: 自動走行車のための自然言語記述の言語的構築ブロック
- Authors: Ashkan Y. Zadeh, Xiaomeng Li, Andry Rakotonirainy, Ronald Schroeter, Sebastien Glaser, Zishuo Zhu,
- Abstract要約: 自然言語の説明は、自動車両(AV)の信頼性と受容を確立する上で重要な役割を担っている
本稿では,AVに対する自然言語説明の言語的構成要素を,文脈,構文,語彙の3段階で識別する階層的分析フレームワークであるX-Blocksを紹介する。
RACEの精度は91.45パーセントで、ヒトアノテーター契約のケースに対するCohens Kappaは0.91である。
- 参考スコア(独自算出の注目度): 14.815119135668247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language explanations play a critical role in establishing trust and acceptance of automated vehicles (AVs), yet existing approaches lack systematic frameworks for analysing how humans linguistically construct driving rationales across diverse scenarios. This paper introduces X-Blocks (eXplanation Blocks), a hierarchical analytical framework that identifies the linguistic building blocks of natural language explanations for AVs at three levels: context, syntax, and lexicon. At the context level, we propose RACE (Reasoning-Aligned Classification of Explanations), a multi-LLM ensemble framework that combines Chain-of-Thought reasoning with self-consistency mechanisms to robustly classify explanations into 32 scenario-aware categories. Applied to human-authored explanations from the Berkeley DeepDrive-X dataset, RACE achieves 91.45 percent accuracy and a Cohens kappa of 0.91 against cases with human annotator agreement, indicating near-human reliability for context classification. At the lexical level, log-odds analysis with informative Dirichlet priors reveals context-specific vocabulary patterns that distinguish driving scenarios. At the syntactic level, dependency parsing and template extraction show that explanations draw from a limited repertoire of reusable grammar families, with systematic variation in predicate types and causal constructions across contexts. The X-Blocks framework is dataset-agnostic and task-independent, offering broad applicability to other automated driving datasets and safety-critical domains. Overall, our findings provide evidence-based linguistic design principles for generating scenario-aware explanations that support transparency, user trust, and cognitive accessibility in automated driving systems.
- Abstract(参考訳): 自然言語の説明は、自動走行車(AV)の信頼性と受容を確立する上で重要な役割を担っているが、既存のアプローチでは、人間が言語的に様々なシナリオにまたがる駆動的合理性をどのように構築するかを分析するための体系的な枠組みが欠如している。
本稿では,AVに対する自然言語説明の言語的構成要素を,文脈,構文,語彙の3段階で識別する階層的分析フレームワークであるX-Blocks(eXplanation Blocks)を紹介する。
RACE(Reasoning-Aligned Classification of Explanations)は,チェイン・オブ・ソート推論と自己整合性機構を組み合わせたマルチLLMアンサンブルフレームワークである。
カリフォルニア大学バークレー校のDeepDrive-Xデータセットによる人間による説明に当てはまると、ACEは91.45パーセントの精度を達成し、Cohens kappaは0.91のアノテータ契約を持つ場合に対して、コンテキスト分類のほぼ人間に近い信頼性を示す。
語彙レベルでは、情報的ディリクレによるログオード分析は、駆動シナリオを区別する文脈固有の語彙パターンを明らかにする。
構文レベルでは、依存解析とテンプレート抽出は、再利用可能な文法ファミリーの限られたレパートリーから説明が引き出され、述語型や文脈間の因果構造が体系的に変化することを示している。
X-Blocksフレームワークは、データセットに依存しないタスク非依存のフレームワークで、他の自動駆動データセットや安全クリティカルドメインにも幅広い適用性を提供する。
本研究は, 自動走行システムにおける透明性, ユーザ信頼, 認知的アクセシビリティをサポートするシナリオ認識説明を生成するためのエビデンスに基づく言語設計原則を提案する。
関連論文リスト
- Deep networks learn to parse uniform-depth context-free languages from local statistics [12.183764229746926]
文だけで言語の構造がどのように学習できるかを理解することは、認知科学と機械学習の両方において中心的な問題である。
我々は,文脈自由文法(PCFG)のクラスを導入し,あいまいさの度合いとスケール間の相関構造を制御できる。
異なるスケールの相関関係が局所的曖昧性を持ち、データの階層的表現の出現を可能にする統一フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-31T17:35:06Z) - Robust Hypothesis Generation: LLM-Automated Language Bias for Inductive Logic Programming [3.641087660577424]
大規模言語モデル(LLM)とインダクティブ論理プログラミング(ILP)を組み合わせたマルチエージェントシステムを統合する新しいフレームワークを提案する。
我々のLLMエージェントは、構造化されたシンボル語彙(述語)と関係テンプレートを自律的に定義する。
多様な、挑戦的なシナリオの実験は、優れたパフォーマンスを検証し、自動化され、説明可能で、検証可能な仮説生成のための新しいパスを舗装する。
論文 参考訳(メタデータ) (2025-05-27T17:53:38Z) - AGENT-X: Adaptive Guideline-based Expert Network for Threshold-free AI-generated teXt detection [44.66668435489055]
Agent-Xは、AI生成テキスト検出のためのゼロショットマルチエージェントフレームワークである。
我々は,検出ガイドラインを意味的,スタイリスティック,構造的次元に整理し,それぞれが専門的な言語エージェントによって独立に評価される。
メタエージェントは、信頼を意識したアグリゲーションを通じてこれらのアセスメントを統合し、しきい値のない解釈可能な分類を可能にする。
多様なデータセットの実験により、Agent-Xは精度、解釈可能性、一般化において最先端の教師付きおよびゼロショットアプローチを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2025-05-21T08:39:18Z) - Data2Concept2Text: An Explainable Multilingual Framework for Data Analysis Narration [42.95840730800478]
本稿では,データの集合を解釈し,基礎となる特徴を抽象化し,それを自然言語で記述する,完全な説明可能なシステムを提案する。
このシステムは、2つの重要な段階に依存している: (i)データから出現する特性を識別し、それらを抽象概念に変換する、(ii)これらの概念を自然言語に変換する。
論文 参考訳(メタデータ) (2025-02-13T11:49:48Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部の動作や推論メカニズムを理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがCFG定義階層を正確に学習し、推論し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - Semantic Role Labeling Meets Definition Modeling: Using Natural Language
to Describe Predicate-Argument Structures [104.32063681736349]
本稿では,離散ラベルの代わりに自然言語定義を用いて述語-代名詞構造を記述する手法を提案する。
PropBankスタイルおよびFrameNetスタイル、依存性ベースおよびスパンベースSRLに関する実験と分析は、解釈可能な出力を持つフレキシブルモデルが必ずしも性能を犠牲にしないことを示す。
論文 参考訳(メタデータ) (2022-12-02T11:19:16Z) - AUTOLEX: An Automatic Framework for Linguistic Exploration [93.89709486642666]
本稿では言語学者による言語現象の簡潔な記述の発見と抽出を容易にするための自動フレームワークを提案する。
具体的には、この枠組みを用いて、形態的一致、ケースマーキング、単語順序の3つの現象について記述を抽出する。
本研究では,言語専門家の助けを借りて記述を評価し,人間の評価が不可能な場合に自動評価を行う手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T20:37:30Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。