論文の概要: Towards Building General Purpose Embedding Models for Industry 4.0 Agents
- arxiv url: http://arxiv.org/abs/2506.12607v1
- Date: Sat, 14 Jun 2025 19:02:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.513841
- Title: Towards Building General Purpose Embedding Models for Industry 4.0 Agents
- Title(参考訳): 産業用4.0エージェントの汎用埋め込みモデルの構築に向けて
- Authors: Christodoulos Constantinides, Shuxin Lin, Dhaval Patel,
- Abstract要約: 私たちは、エンジニアの意思決定をガイドし、アセットダウンタイムを最小限に抑えるために、アセットメンテナンスに対する言語モデルの理解を改善することに重点を置いています。
産業4.0ドメインの自然言語で表されるタスクの集合が、それぞれ特定の資産に関連するクエリに関連するものであることを前提として、関連する項目を推奨し、類似資産のクエリを一般化したい。
当社のアプローチは,9つのアセット固有のタスクデータセットを構築するために,定性的な専門家による知識ベースを収集することから始まります。
- 参考スコア(独自算出の注目度): 5.212780106286918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we focus on improving language models' understanding for asset maintenance to guide the engineer's decisions and minimize asset downtime. Given a set of tasks expressed in natural language for Industry 4.0 domain, each associated with queries related to a specific asset, we want to recommend relevant items and generalize to queries of similar assets. A task may involve identifying relevant sensors given a query about an asset's failure mode. Our approach begins with gathering a qualitative, expert-vetted knowledge base to construct nine asset-specific task datasets. To create more contextually informed embeddings, we augment the input tasks using Large Language Models (LLMs), providing concise descriptions of the entities involved in the queries. This embedding model is then integrated with a Reasoning and Acting agent (ReAct), which serves as a powerful tool for answering complex user queries that require multi-step reasoning, planning, and knowledge inference. Through ablation studies, we demonstrate that: (a) LLM query augmentation improves the quality of embeddings, (b) Contrastive loss and other methods that avoid in-batch negatives are superior for datasets with queries related to many items, and (c) It is crucial to balance positive and negative in-batch samples. After training and testing on our dataset, we observe a substantial improvement: HIT@1 increases by +54.2%, MAP@100 by +50.1%, and NDCG@10 by +54.7%, averaged across all tasks and models. Additionally, we empirically demonstrate the model's planning and tool invocation capabilities when answering complex questions related to industrial asset maintenance, showcasing its effectiveness in supporting Subject Matter Experts (SMEs) in their day-to-day operations.
- Abstract(参考訳): この作業では、エンジニアの意思決定をガイドし、アセットダウンタイムを最小限に抑えるために、アセットメンテナンスに対する言語モデルの理解を改善することに重点を置いています。
産業4.0ドメインの自然言語で表されるタスクの集合が、それぞれ特定の資産に関連するクエリに関連するものであることを前提として、関連する項目を推奨し、類似資産のクエリに一般化したい。
タスクには、アセットの障害モードに関するクエリが与えられた場合に、関連するセンサーを特定することが含まれる。
当社のアプローチは,9つのアセット固有のタスクデータセットを構築するために,定性的な専門家による知識ベースを収集することから始まります。
より文脈的に情報を得た埋め込みを生成するために,Large Language Models (LLMs) を用いて入力タスクを拡張し,クエリに関連するエンティティの簡潔な記述を提供する。
この埋め込みモデルはReasoning and Acting Agent(ReAct)と統合され、マルチステップ推論、計画、知識推論を必要とする複雑なユーザクエリに応答する強力なツールとして機能する。
アブレーション研究を通じて、私たちは次のように示しています。
(a)LLMクエリ拡張により、埋め込みの品質が向上する。
b)多くの項目に関連するクエリを持つデータセットでは,バッチ内陰性を回避するコントラスト損失やその他の方法が優れている。
(c) 正および負のバッチ内サンプルのバランスをとることが重要である。
HIT@1は+54.2%増加し、MAP@100は+50.1%増加し、NDCG@10は+54.7%増加し、すべてのタスクやモデルで平均化されています。
また,産業資産維持に関する複雑な疑問に答える際のモデル計画とツール実行能力を実証的に実証し,その効果を日常業務における課題エキスパート(SME)支援に示す。
関連論文リスト
- Enhancing Talent Employment Insights Through Feature Extraction with LLM Finetuning [0.0]
遠隔作業の可利用性、報酬構造、教育要件、作業経験の好みなどの変数を識別する堅牢なパイプラインを開発する。
本手法は,従来の解析ツールの限界を克服するために,意味的チャンキング,検索拡張生成(RAG),微調整DistilBERTモデルを組み合わせる。
細調整されたモデルの包括的評価を行い、その強度、限界、スケーリングの可能性について分析する。
論文 参考訳(メタデータ) (2025-01-13T19:49:49Z) - MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale [66.73529246309033]
MLLM(Multimodal large language model)は、多モーダルタスクにおいて大きな可能性を秘めている。
既存の命令チューニングデータセットは、中間的合理性のないフレーズレベルの答えのみを提供する。
そこで本研究では,大規模マルチモーダル・インストラクション・チューニング・データセットを構築するためのスケーラブルで費用対効果の高い手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T18:14:24Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Unified machine learning tasks and datasets for enhancing renewable
energy [0.8356833388425764]
ETT-17(Energy Transition Tasks-17)は再生可能エネルギーの増強に関連する17のデータセットの集合である。
すべてのタスクとデータセットを統一し、単一のマルチタスクMLモデルで解決できるようにします。
論文 参考訳(メタデータ) (2023-11-12T15:30:44Z) - Evaluating the Capabilities of Multi-modal Reasoning Models with
Synthetic Task Data [0.0]
我々は高解像度テキスト・画像生成の進歩を活用し、マルチモーダル推論タスクの評価データを生成するフレームワークを開発する。
このフレームワークを用いて、コンテキスト依存の異常データを生成し、困難なタスクに合成データセットを作成する。
我々は,タスクが抽出可能である一方で,標準的なVQAタスクよりもコンテキスト依存型異常検出タスクでは,モデルが大幅に悪化することを示した。
論文 参考訳(メタデータ) (2023-06-01T20:56:34Z) - LLMs for Knowledge Graph Construction and Reasoning: Recent Capabilities and Future Opportunities [66.36633042421387]
知識グラフ(KG)の構築と推論のための大規模言語モデル(LLM)の評価。
我々は,LLMと外部ソースを用いたマルチエージェントベースのアプローチであるAutoKGを提案し,KGの構築と推論を行う。
論文 参考訳(メタデータ) (2023-05-22T15:56:44Z) - Active Feature Acquisition with Generative Surrogate Models [11.655069211977464]
本研究では,アクティブ機能獲得(AFA)を行うモデルについて検討し,未観測機能に対する環境問合せを行う。
我々の研究は、AFA問題を生成的モデリングタスクとして根底にあるマルコフ決定プロセス(MDP)を再構築する。
本稿では,入力特徴間の依存関係を捕捉し,取得から得られる潜在的な情報を評価する生成代理モデル(GSM)の学習を提案する。
論文 参考訳(メタデータ) (2020-10-06T02:10:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。