論文の概要: Domain-Specific Query Understanding for Automotive Applications: A Modular and Scalable Approach
- arxiv url: http://arxiv.org/abs/2604.16301v1
- Date: Fri, 16 Jan 2026 12:21:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-05-04 02:32:13.864483
- Title: Domain-Specific Query Understanding for Automotive Applications: A Modular and Scalable Approach
- Title(参考訳): 自動車アプリケーションのためのドメイン特有なクエリ理解:モジュール的でスケーラブルなアプローチ
- Authors: Isha Motiyani, Abhishek Kumar, Tilak Kasturi,
- Abstract要約: 本稿では,自動車コンテキストにおけるドメイン固有クエリ解釈のための新しい2段階システムを提案する。
タスクを軽量な分類段階に分解し、目的のエンティティ抽出を行うことで、効率と精度の両方で大幅に向上する。
- 参考スコア(独自算出の注目度): 6.55975335778463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the growing prevalence of large language models (LLMs) in domain-specific applications, the challenge of query understanding in the automotive sector still remains underexplored. This domain presents unique complexities due to its specialized vocabulary and the diverse range of user intents it encompasses. Unlike general-purpose assistants, automotive systems must precisely interpret user queries and route them to appropriate underlying tool, each designed to fulfill a distinct task such as part recommendations, repair procedures, or regulatory lookups. Moreover, these systems must extract structured inputs precisely aligned with the schema required by each tool. In this study, we present a novel two-step system for domain-specific query interpretation in the automotive context that achieves an effective balance between responsiveness, reliability, and scalability. Our initial single-step approach, which jointly performed classification and entity extraction, exhibited moderate performance and higher latency. By decomposing the task into a lightweight classification stage followed by targeted entity extraction using smaller, specialized prompts, our system achieves substantial gains in both efficiency and accuracy. Due to the niche nature of the automotive domain, we also curated a high-quality dataset by combining manually annotated and synthetically generated samples, all reviewed by domain experts. Overall, our findings demonstrate that decomposing query understanding into modular subtasks leads to a scalable, accurate, and latency-efficient solution. This approach establishes a strong ground for practical deployment in real-world automotive query understanding systems.
- Abstract(参考訳): ドメイン固有アプリケーションにおける大規模言語モデル(LLM)の普及にもかかわらず、自動車分野における問合せ理解の課題はいまだ過小評価されている。
このドメインは、その専門的な語彙と、それが包含する多様なユーザ意図のために、ユニークな複雑さを示す。
汎用アシスタントとは異なり、自動車システムはユーザークエリを正確に解釈し、それらを適切な基盤ツールにルーティングする必要がある。
さらに、これらのシステムは、各ツールに必要なスキーマと正確に整合した構造化された入力を抽出する必要がある。
本研究では, 応答性, 信頼性, スケーラビリティのバランスを効果的に達成する, 自動車環境におけるドメイン固有クエリ解釈のための2段階の新たなシステムを提案する。
分類とエンティティ抽出を共同で行った最初のシングルステップアプローチでは,性能が適度に向上し,レイテンシが向上した。
タスクを軽量な分類段階に分解し,より小型で特殊なプロンプトを用いて目的のエンティティ抽出を行うことで,効率と精度の両面で大幅に向上する。
また, 自動車分野のニッチな性質から, 手動で注釈付き, 合成されたサンプルを組み合わせて, 高品質なデータセットをキュレートした。
全体として、クエリ理解をモジュール化されたサブタスクに分解することで、スケーラブルで、正確で、レイテンシ効率のよいソリューションが得られます。
このアプローチは,現実の自動車問合せ理解システムにおける実践的展開の基盤となる。
関連論文リスト
- Agentic Adversarial QA for Improving Domain-Specific LLMs [53.00642389531106]
大規模言語モデル(LLM)は、しばしば専門分野に効果的に対応するのに苦労する。
本稿では,意味論的課題の集合をコンパクトに生成する逆問題生成フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-20T10:53:09Z) - Steering LLMs via Scalable Interactive Oversight [74.12746881843044]
大規模な言語モデルは、エンフェーブコーディングのような複雑で長期にわたるタスクをますます自動化し、監督のギャップが生まれています。
スケーラブルな監視において重要な課題は、人間が責任を持ってAIシステムを、特定または検証する能力を超えたタスクで操ることができることだ。
論文 参考訳(メタデータ) (2026-02-04T04:52:00Z) - Forging Spatial Intelligence: A Roadmap of Multi-Modal Data Pre-Training for Autonomous Systems [75.78934957242403]
自動運転車とドローンは、マルチモーダル搭載センサーデータから真の空間情報を必要とする。
本稿では,この目標に向かって進む中核的な技術群を同定し,マルチモーダル・プレトレーニングのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-30T17:58:01Z) - Designing Domain-Specific Agents via Hierarchical Task Abstraction Mechanism [61.01709143437043]
階層型タスク抽象化機構(HTAM)を中心とした新しいエージェント設計フレームワークを提案する。
具体的には、HTAMは、社会的役割のエミュレーションを超えて、代わりに、複数のエージェントシステムを、あるドメインの固有のタスク依存グラフを反映する論理階層に構造化する。
我々は、複雑な地理空間解析に適したマルチエージェントシステムであるEarthAgentとして、このフレームワークをインスタンス化する。
論文 参考訳(メタデータ) (2025-11-21T12:25:47Z) - Powering Job Search at Scale: LLM-Enhanced Query Understanding in Job Matching Systems [10.9341814749217]
LLM(Large Language Model)を利用した統合クエリ理解フレームワークを提案する。
提案手法は,ユーザクエリとプロファイル属性などのコンテキスト信号とを共同でモデル化し,構造化された解釈を生成する。
このフレームワークは、オンラインA/Bテストにおける関連品質を改善し、システムの複雑さを著しく低減する。
論文 参考訳(メタデータ) (2025-08-19T21:35:43Z) - Towards more Contextual Agents: An extractor-Generator Optimization Framework [0.0]
LLM(Large Language Model)ベースのエージェントは、幅広い汎用アプリケーションにわたる複雑なタスクの解決に顕著な成功を収めている。
しかしながら、それらのパフォーマンスは、専門産業や研究領域のようなコンテキスト固有のシナリオで劣化することが多い。
この課題に対処するため,本研究では,LLMエージェントの文脈適応性を高めるための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:07:06Z) - AT-MoE: Adaptive Task-planning Mixture of Experts via LoRA Approach [0.6906005491572401]
本稿では,Adaptive Task-planing Mixture of Experts(AT-MoE)アーキテクチャを紹介する。
まず、LoRAアプローチを用いてタスク固有の専門家を訓練し、専門分野における問題解決能力と解釈可能性を高める。
次に,複雑なタスク命令に基づくモジュール融合を最適化する階層適応型グループルーティングモジュールを提案する。
論文 参考訳(メタデータ) (2024-10-12T13:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。