論文の概要: Intent-Driven Smart Manufacturing Integrating Knowledge Graphs and Large Language Models
- arxiv url: http://arxiv.org/abs/2602.12419v1
- Date: Thu, 12 Feb 2026 21:17:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.759945
- Title: Intent-Driven Smart Manufacturing Integrating Knowledge Graphs and Large Language Models
- Title(参考訳): 知識グラフと大規模言語モデルを統合したインテント駆動型スマートマニュファクチャリング
- Authors: Takoua Jradi, John Violos, Dimitrios Spatharakis, Lydia Mavraidi, Ioannis Dimolitsas, Aris Leivadeas, Symeon Papavassiliou,
- Abstract要約: 本稿では,命令調整言語モデル(LLM)と知識グラフ(KG)を統合する統合フレームワークを提案する。
ドメイン固有のデータセット上でMistral-7BInstructaV02を微調整し、自然言語の意図を構造化された要求モデルに変換する。
その結果、ゼロショットと3ショットのベースラインよりも大きなパフォーマンス向上を示し、89.33%の正確なマッチング精度と97.27%の全体的な精度を達成した。
- 参考スコア(独自算出の注目度): 4.648248749856501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing complexity of smart manufacturing environments demands interfaces that can translate high-level human intents into machine-executable actions. This paper presents a unified framework that integrates instruction-tuned Large Language Models (LLMs) with ontology-aligned Knowledge Graphs (KGs) to enable intent-driven interaction in Manufacturing-as-a-Service (MaaS) ecosystems. We fine-tune Mistral-7B-Instruct-V02 on a domain-specific dataset, enabling the translation of natural language intents into structured JSON requirement models. These models are semantically mapped to a Neo4j-based knowledge graph grounded in the ISA-95 standard, ensuring operational alignment with manufacturing processes, resources, and constraints. Our experimental results demonstrate significant performance gains over zero-shot and 3-shots baselines, achieving 89.33\% exact match accuracy and 97.27\% overall accuracy. This work lays the foundation for scalable, explainable, and adaptive human-machine
- Abstract(参考訳): スマートマニュファクチャリング環境の複雑さが増すにつれ、ハイレベルな人間の意図をマシン実行可能なアクションに変換するインターフェースが要求される。
本稿では,インストラクションチューニングされた大規模言語モデル(LLM)とオントロジー対応の知識グラフ(KG)を統合し,MaaSエコシステムにおける意図駆動インタラクションを実現する統一フレームワークを提案する。
ドメイン固有のデータセットでMistral-7B-Instruct-V02を微調整し、自然言語のインテントを構造化されたJSON要求モデルに変換する。
これらのモデルは、ISA-95標準に基づいたNeo4jベースの知識グラフに意味的にマッピングされ、製造プロセス、リソース、制約との運用上の整合性を確保する。
実験の結果、ゼロショットと3ショットのベースラインよりも大きな性能向上を示し、89.33\%の正確なマッチング精度と97.27\%の全体的な精度を実現した。
この研究は、スケーラブルで説明可能で適応的なヒューマンマシンの基礎を築いた
関連論文リスト
- MCeT: Behavioral Model Correctness Evaluation using Large Language Models [4.34964016971127]
AIモデリングアシスタントとしてのLarge Language Models(LLM)の利用の増加に伴い、ダイアグラムの生成により多くの自動化が関与するようになる。
本稿では,行動モデル,特にシーケンス図の正しさを,対応する要求テキストに対して評価する最初の完全自動化ツールMCeTを提案する。
論文 参考訳(メタデータ) (2025-08-01T13:41:58Z) - Synthetic Visual Genome [88.00433979509218]
本稿では,高品質な高次グラフを大規模に構築できる密接な注釈付き関係を持つ命令設計法であるROBINを紹介する。
我々のデータセットは合計146K画像と2.6Mオブジェクトの5.6M関係を含んでいる。
ROBIN-3Bモデルは300万件未満のインスタンスでトレーニングされているにもかかわらず、関係理解ベンチマークで3億件以上のインスタンスでトレーニングされた類似サイズのモデルを上回っている。
論文 参考訳(メタデータ) (2025-06-09T11:09:10Z) - Prismatic Synthesis: Gradient-based Data Diversification Boosts Generalization in LLM Reasoning [77.120955854093]
我々は,データ多様性が言語モデルにおける一般化の強力な予測因子であることを示す。
モデル誘起勾配のエントロピーを通して多様性を定量化する計量であるG-Vendiを導入する。
多様な合成データを生成するためのフレームワークであるPrismatic Synthesisを提案する。
論文 参考訳(メタデータ) (2025-05-26T16:05:10Z) - SLOT: Structuring the Output of Large Language Models [5.683327173793259]
SLOT(Structured LLM Output Transformer)は,非構造化LCM出力を正確な構造化形式に変換するモデルに依存しない手法である。
この結果から,制約付き復号化による微調整Mistral-7Bモデルでは,ほぼ完全なスキーマ精度が得られた。
特に、Llama-3.2-1Bのようなコンパクトなモデルでさえ、はるかに大きなプロプライエタリなモデルの出力能力にマッチまたは超えることができる。
論文 参考訳(メタデータ) (2025-05-06T23:29:43Z) - Text to Band Gap: Pre-trained Language Models as Encoders for Semiconductor Band Gap Prediction [9.325818199739759]
本稿では,半導体材料のバンドギャップを予測するために,RoBERTa,T5,Llama-3,MatSciBERTなどのトランスフォーマーベース言語モデルについて検討する。
入力は、化学組成、結晶系、空間群、その他の構造的および電子的性質などの重要な材料特性を符号化する。
論文 参考訳(メタデータ) (2025-01-07T00:56:26Z) - Tool-Augmented Reward Modeling [58.381678612409]
本稿では,外部環境へのアクセスによるRMの強化により,制約に対処するツール拡張された嗜好モデリング手法であるThemisを提案する。
我々の研究は、外部ツールをRMに統合し、様々な外部ソースとの相互作用を可能にすることを目的としている。
人間の評価では、テミスで訓練されたRLHFはベースラインと比較して平均32%の勝利率を得る。
論文 参考訳(メタデータ) (2023-10-02T09:47:40Z) - Grounded Decoding: Guiding Text Generation with Grounded Models for
Embodied Agents [111.15288256221764]
グラウンデッドデコーディングプロジェクトは、両方のモデルの知識を活用することで、ロボット環境で複雑な長期タスクを解決することを目的としている。
我々はこれを確率的フィルタリングに類似した問題として、言語モデルの下で高い確率を持つシーケンスをデコードし、基底モデル対象のセットで高い確率を示す。
本研究では,3つのシミュレーション領域と実世界の領域にまたがって,そのような基底モデルがどのように得られるのかを実証し,両モデルの知識を活用して,ロボット環境での複雑な長期的タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-03-01T22:58:50Z) - GLaM: Efficient Scaling of Language Models with Mixture-of-Experts [84.33607245023049]
我々はGLaM(Generalist Language Model)という言語モデル群を提案し,開発する。
GLaMは、厳密な変種に比べてトレーニングコストを大幅に削減しつつ、モデルのキャパシティを拡大するために、わずかに活性化されたミックス・オブ・エキスパートアーキテクチャを使用する。
GPT-3の訓練に使用するエネルギーの1/3しか消費せず、推論にはフロップの半分しか必要とせず、29のNLPタスクにまたがる全体的なゼロショットとワンショットのパフォーマンスは向上している。
論文 参考訳(メタデータ) (2021-12-13T18:58:19Z) - Semantic Parsing with Less Prior and More Monolingual Data [12.715221084359085]
本研究では,ジェネリックトランスフォーマに基づくseq2seqモデルが,最小のセマンティックパース比帰納バイアス設計で競合性能を達成できるかどうかを検討する。
並列コーパスとは異なり、Webからマイニングするのに安価であるターゲットプログラミング言語の比較的大規模なモノリンガルコーパスを利用することで、Djangoの80.75%の正確な一致精度とCoNaLaの32.57のBLEUスコアを達成しました。
論文 参考訳(メタデータ) (2021-01-01T16:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。