論文の概要: Smarter, not Bigger: Fine-Tuned RAG-Enhanced LLMs for Automotive HIL Testing
- arxiv url: http://arxiv.org/abs/2511.22584v1
- Date: Thu, 27 Nov 2025 16:18:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.638295
- Title: Smarter, not Bigger: Fine-Tuned RAG-Enhanced LLMs for Automotive HIL Testing
- Title(参考訳): より賢く、より大きくない - 自動車用HILテストのための微調整RAG強化LDM
- Authors: Chao Feng, Zihan Liu, Siddhant Gupta, Gongpei Cui, Jan von der Assen, Burkhard Stiller,
- Abstract要約: ハードウェア・イン・ザ・ループ(HIL)テストは、自動車の検証には不可欠だが、断片化と未使用のテストアーティファクトに悩まされている。
本稿では,ドメイン適応型大言語モデル(LLM)と意味検索を統合した検索拡張生成(RAG)システムであるHIL-GPTを提案する。
- 参考スコア(独自算出の注目度): 9.159210010741667
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hardware-in-the-Loop (HIL) testing is essential for automotive validation but suffers from fragmented and underutilized test artifacts. This paper presents HIL-GPT, a retrieval-augmented generation (RAG) system integrating domain-adapted large language models (LLMs) with semantic retrieval. HIL-GPT leverages embedding fine-tuning using a domain-specific dataset constructed via heuristic mining and LLM-assisted synthesis, combined with vector indexing for scalable, traceable test case and requirement retrieval. Experiments show that fine-tuned compact models, such as \texttt{bge-base-en-v1.5}, achieve a superior trade-off between accuracy, latency, and cost compared to larger models, challenging the notion that bigger is always better. An A/B user study further confirms that RAG-enhanced assistants improve perceived helpfulness, truthfulness, and satisfaction over general-purpose LLMs. These findings provide insights for deploying efficient, domain-aligned LLM-based assistants in industrial HIL environments.
- Abstract(参考訳): ハードウェア・イン・ザ・ループ(HIL)テストは、自動車の検証には不可欠だが、断片化と未使用のテストアーティファクトに悩まされている。
本稿では,ドメイン適応型大言語モデル(LLM)と意味検索を統合した検索拡張生成(RAG)システムであるHIL-GPTを提案する。
HIL-GPTは、ヒューリスティックマイニングとLCM支援合成によって構築されたドメイン固有データセットを用いて、スケーラブルでトレーサブルなテストケースと要求検索のためのベクトルインデックスを組み込んだ埋め込み細調整を利用する。
実験により, 精度, レイテンシ, コストのトレードオフが, より大きいモデルに比べて優れていることを示すとともに, より大きいモデルの方が常に優れているという概念に挑戦する。
A/B ユーザによる研究により、RAG 強化されたアシスタントは汎用 LLM よりも有用性、真実性、満足感が向上することが確認された。
これらの知見は, 産業用HIL環境において, ドメイン整列型LLMアシスタントを効率よく展開するための知見を与える。
関連論文リスト
- Enhancing Transformer-Based Rerankers with Synthetic Data and LLM-Based Supervision [0.13999481573773073]
大きな言語モデル(LLM)は、その深いセマンティック理解と推論のために、再分類時に優れている。
微調整の小さなタスク固有のモデルは、より効率的な代替手段だが、通常は手動でラベル付けされたデータに頼っている。
本稿では,人間ラベルのクエリドキュメントペアの必要性を解消する新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2025-09-23T09:47:27Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - DetectAnyLLM: Towards Generalizable and Robust Detection of Machine-Generated Text Across Domains and Models [60.713908578319256]
タスク指向の知識で検出器を最適化するために,DDL(Direct Discrepancy Learning)を提案する。
そこで本研究では,最新のMGTD性能を実現する統合検出フレームワークであるTectAnyLLMを紹介する。
MIRAGEは5つのテキストドメインにまたがる10のコーパスから人書きテキストをサンプリングし、17個の最先端のLLMを使用して再生成または修正する。
論文 参考訳(メタデータ) (2025-09-15T10:59:57Z) - Do We Really Need Specialization? Evaluating Generalist Text Embeddings for Zero-Shot Recommendation and Search [51.30225948318648]
汎用テキスト埋め込みモデル(GTE)は大規模コーパス上で事前訓練される。
GTEは特別な適応なしに強力なゼロショット性能を保証できることを示す。
また、最も情報性の高い方向に着目して埋め込み寸法を圧縮することで、ノイズを効果的に低減できることを示す。
論文 参考訳(メタデータ) (2025-07-07T13:41:52Z) - ReGUIDE: Data Efficient GUI Grounding via Spatial Reasoning and Search [53.40810298627443]
ReGUIDEは、MLLMが自己生成的推論と空間認識的批判を通じてデータを効率的に学習することを可能にするWebグラウンドのためのフレームワークである。
実験により、ReGUIDEは複数のベンチマークでWebグラウンド性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-05-21T08:36:18Z) - Auto-GDA: Automatic Domain Adaptation for Efficient Grounding Verification in Retrieval-Augmented Generation [13.120801609024147]
検索強化生成(RAG)は,大規模言語モデル(LLM)出力の事実性を高めることが示されている。
RAG入力は、NLIモデルのトレーニングに使用されるほとんどのデータセットよりも複雑である。
教師なし領域適応を実現するために自動生成適応(Auto-GDA)を導入する。
論文 参考訳(メタデータ) (2024-10-04T14:21:27Z) - Fine-Tuning or Fine-Failing? Debunking Performance Myths in Large Language Models [0.8399688944263842]
大きな言語モデル(LLM)は、入力クエリから人間のようなテキストを理解し、生成する能力を持つ。
本研究では、この概念を、レトリーバル拡張生成(RAG)パイプライン内のLLMの統合に拡張する。
データ抽出と文脈理解における微調整がLLMの能力に与える影響を評価する。
論文 参考訳(メタデータ) (2024-06-17T04:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。