論文の概要: Cleaning Maintenance Logs with LLM Agents for Improved Predictive Maintenance
- arxiv url: http://arxiv.org/abs/2511.05311v1
- Date: Fri, 07 Nov 2025 15:12:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.809078
- Title: Cleaning Maintenance Logs with LLM Agents for Improved Predictive Maintenance
- Title(参考訳): 予測保守性向上のためのLLMエージェントによる清掃保守ログ作成
- Authors: Valeriu Dimidov, Faisal Hawlader, Sasan Jafarnejad, Raphaël Frank,
- Abstract要約: 予測メンテナンス(PdM)クリーニングパイプラインをサポートするため,大規模言語モデル(LLM)の可能性を検討する。
具体的には,機械学習(ML)モデルをトレーニングするための重要なデータソースであるメンテナンスログに焦点を当てる。
LLMは汎用的なクリーニングタスクの処理に有効であり、将来の産業アプリケーションに有望な基盤を提供する。
- 参考スコア(独自算出の注目度): 0.15749416770494704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Economic constraints, limited availability of datasets for reproducibility and shortages of specialized expertise have long been recognized as key challenges to the adoption and advancement of predictive maintenance (PdM) in the automotive sector. Recent progress in large language models (LLMs) presents an opportunity to overcome these barriers and speed up the transition of PdM from research to industrial practice. Under these conditions, we explore the potential of LLM-based agents to support PdM cleaning pipelines. Specifically, we focus on maintenance logs, a critical data source for training well-performing machine learning (ML) models, but one often affected by errors such as typos, missing fields, near-duplicate entries, and incorrect dates. We evaluate LLM agents on cleaning tasks involving six distinct types of noise. Our findings show that LLMs are effective at handling generic cleaning tasks and offer a promising foundation for future industrial applications. While domain-specific errors remain challenging, these results highlight the potential for further improvements through specialized training and enhanced agentic capabilities.
- Abstract(参考訳): 経済的な制約、再現性のためのデータセットの可用性の制限、専門知識の不足は、自動車部門における予測保守(PdM)の導入と進歩の鍵となる課題として長年認識されてきた。
大規模言語モデル(LLM)の最近の進歩は、これらの障壁を克服し、PdMの研究から工業的実践への移行を加速する機会を提供する。
これらの条件下では, PdMクリーニングパイプラインをサポートするLLMエージェントの可能性を探る。
具体的には,機械学習(ML)モデルをトレーニングするための重要なデータソースであるメンテナンスログに注目する。
6種類のノイズを含む清掃作業におけるLCMエージェントの評価を行った。
以上の結果から, LLMは汎用的なクリーニング作業に有効であり, 将来的な産業応用の基盤となる可能性が示唆された。
ドメイン固有のエラーは依然として困難なままだが、これらの結果は、特別なトレーニングと強化されたエージェント機能によるさらなる改善の可能性を強調している。
関連論文リスト
- Fine-Tuned Thoughts: Leveraging Chain-of-Thought Reasoning for Industrial Asset Health Monitoring [2.3744494000399174]
小言語モデル (SLM) は、産業応用などの専門分野において、ますます人気が高まっている。
本稿では,大規模言語モデル (LLM) からより小型で効率的なモデル (SLM) へ推論能力を伝達する産業資産衛生のための知識蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-21T17:18:24Z) - Evaluating LLM-Contaminated Crowdsourcing Data Without Ground Truth [18.069595635842557]
クラウドソーシングワーカーによる大規模言語モデル(LLM)は、人間の入力を反映するデータセットに挑戦する。
LLMの共謀を考慮に入れたクラウドソーシングモデルの下で,理論的保証付き学習自由スコアリング機構を提案する。
論文 参考訳(メタデータ) (2025-06-08T04:38:39Z) - LLM Post-Training: A Deep Dive into Reasoning Large Language Models [131.10969986056]
大規模言語モデル (LLMs) は自然言語処理の状況を変え、多様な応用をもたらした。
ポストトレーニング手法により、LLMは知識を洗練させ、推論を改善し、事実の正確性を高め、ユーザの意図や倫理的配慮をより効果的に整合させることができる。
論文 参考訳(メタデータ) (2025-02-28T18:59:54Z) - Leveraging Online Olympiad-Level Math Problems for LLMs Training and Contamination-Resistant Evaluation [55.21013307734612]
AoPS-Instructは60,000以上の高品質QAペアのデータセットである。
LiveAoPSBenchは、最新のフォーラムデータから派生したタイムスタンプによる進化的評価セットである。
我々の研究は、高度な数学推論のための大規模で高品質なデータセットの作成と維持にスケーラブルなアプローチを提示している。
論文 参考訳(メタデータ) (2025-01-24T06:39:38Z) - Towards Robust Evaluation of Unlearning in LLMs via Data Transformations [17.927224387698903]
大きな言語モデル(LLM)は、通常のNLPベースのユースケースからAIエージェントまで、幅広いアプリケーションで大きな成功を収めている。
近年,マシン・アンラーニング(MUL)分野の研究が活発化している。
主な考え方は、LLMが通常のタスクのパフォーマンス損失に悩まされることなく、特定の情報(例えば、PII)を忘れること(未学習)を強制することである。
論文 参考訳(メタデータ) (2024-11-23T07:20:36Z) - Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
性能ギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - Recognizing Limits: Investigating Infeasibility in Large Language Models [7.321802034308729]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示しているが、多くの場合、その知識や能力を超えるクエリを処理できない。
本稿は,LLMが機能を超えた要求により,実現不可能なタスクを認識し,拒否する必要性に対処する。
論文 参考訳(メタデータ) (2024-08-11T22:58:23Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。