論文の概要: IM-Chat: A Multi-agent LLM-based Framework for Knowledge Transfer in Injection Molding Industry
- arxiv url: http://arxiv.org/abs/2507.15268v1
- Date: Mon, 21 Jul 2025 06:13:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.277097
- Title: IM-Chat: A Multi-agent LLM-based Framework for Knowledge Transfer in Injection Molding Industry
- Title(参考訳): 射出成形における知識伝達のための多エージェントLCMフレームワークIM-Chat
- Authors: Junhyeong Lee, Joon-Young Kim, Heekyu Kim, Inhyo Lee, Seunghwa Ryu,
- Abstract要約: 本研究では,大規模言語モデル(LLM)に基づくマルチエージェントフレームワークIM-Chatを紹介する。
IM-Chatは、限られた文書化された知識(例えば、トラブルシューティングテーブルやマニュアル)と、データ駆動プロセス条件生成器によってモデル化された広範囲なフィールドデータを統合する。
GPT-4o, GPT-4o-mini, GPT-3.5-turboizableにおける100個のシングルツールと60個のハイブリッドタスクのパフォーマンスを評価した。
- 参考スコア(独自算出の注目度): 1.3369318110920576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The injection molding industry faces critical challenges in preserving and transferring field knowledge, particularly as experienced workers retire and multilingual barriers hinder effective communication. This study introduces IM-Chat, a multi-agent framework based on large language models (LLMs), designed to facilitate knowledge transfer in injection molding. IM-Chat integrates both limited documented knowledge (e.g., troubleshooting tables, manuals) and extensive field data modeled through a data-driven process condition generator that infers optimal manufacturing settings from environmental inputs such as temperature and humidity, enabling robust and context-aware task resolution. By adopting a retrieval-augmented generation (RAG) strategy and tool-calling agents within a modular architecture, IM-Chat ensures adaptability without the need for fine-tuning. Performance was assessed across 100 single-tool and 60 hybrid tasks for GPT-4o, GPT-4o-mini, and GPT-3.5-turbo by domain experts using a 10-point rubric focused on relevance and correctness, and was further supplemented by automated evaluation using GPT-4o guided by a domain-adapted instruction prompt. The evaluation results indicate that more capable models tend to achieve higher accuracy, particularly in complex, tool-integrated scenarios. Overall, these findings demonstrate the viability of multi-agent LLM systems for industrial knowledge workflows and establish IM-Chat as a scalable and generalizable approach to AI-assisted decision support in manufacturing.
- Abstract(参考訳): 射出成形産業は、特に経験豊富な労働者が引退し、多言語的障壁が効果的なコミュニケーションを妨げているため、現場知識の保存と移転において重要な課題に直面している。
本研究では, 射出成形における知識伝達を容易にするために, 大規模言語モデル(LLM)に基づくマルチエージェントフレームワークであるIM-Chatを紹介する。
IM-Chatは、限られた文書化された知識(例えば、トラブルシューティングテーブル、マニュアル)と、温度や湿度などの環境入力から最適な製造環境を推測するデータ駆動プロセス条件生成器によってモデル化された広範なフィールドデータを統合し、堅牢でコンテキスト対応のタスク解決を可能にする。
モジュールアーキテクチャに検索強化世代(RAG)戦略とツールコールエージェントを採用することで、IM-Chatは微調整を必要とせずに適応性を保証する。
GPT-4o, GPT-4o-mini, GPT-3.5-turboに対する100個のシングルツールと60個のハイブリッドタスクに対して, 関連性と正確性に着目した10点ルーブリックを用いて評価を行い, ドメイン適応命令プロンプトで誘導されたGPT-4oを用いた自動評価により, さらに補足された。
評価結果は、特に複雑なツール統合シナリオにおいて、より有能なモデルの方が高い精度を達成する傾向があることを示している。
これらの知見は、産業知識ワークフローのためのマルチエージェントLLMシステムの実現可能性を示し、製造業におけるAI支援意思決定支援へのスケーラブルで汎用的なアプローチとしてIM-Chatを確立した。
関連論文リスト
- MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Enhancing Autonomous Driving Systems with On-Board Deployed Large Language Models [25.418353477628035]
本研究では,低レベルモデル予測制御器(MPC)と局所展開型大規模言語モデル(LLM)を組み合わせたハイブリッドアーキテクチャを提案する。
DecisionxLLMモジュールは、ロボットの状態情報を自然言語命令に対して評価し、所望の運転行動への順守を保証する。
本稿では、検索型拡張生成(RAG)、低ランク適応(LoRA)、微調整、量子化を利用するアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-15T13:49:17Z) - Automatic MILP Model Construction for Multi-Robot Task Allocation and Scheduling Based on Large Language Models [13.960259962694126]
既存の手法は、動的な生産制約に適応する際の課題に直面します。
企業には 生産スケジュールデータに対する 高いプライバシ要件があります
本研究では,知識強化型混合整数線形時間(MILP)自動フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-18T01:45:19Z) - Can Multimodal Large Language Models be Guided to Improve Industrial Anomaly Detection? [5.979778557940213]
従来の産業異常検出モデルは、しばしば柔軟性と適応性に苦しむ。
MLLM(Multimodal Large Language Models)の最近の進歩は、これらの制限を克服することを約束している。
IADのためのMLLM性能を向上させるために設計された,新しいマルチエキスパートフレームワークであるEchoを提案する。
論文 参考訳(メタデータ) (2025-01-27T05:41:10Z) - DropMicroFluidAgents (DMFAs): Autonomous Droplet Microfluidic Research Framework Through Large Language Model Agents [0.6827423171182153]
本研究では, 液滴マイクロ流体学研究におけるLarge Language Model (LLM) の有効性を示す。
LLAMA3.1モデルとDMFAの統合により、76.15%の精度が得られた。
これらの能力により、教育や産業支援にまたがる応用が可能となり、科学的な発見と革新の効率が向上する。
論文 参考訳(メタデータ) (2024-12-30T11:58:52Z) - Automatic Evaluation for Text-to-image Generation: Task-decomposed Framework, Distilled Training, and Meta-evaluation Benchmark [62.58869921806019]
GPT-4oに基づくタスク分解評価フレームワークを提案し、新しいトレーニングデータセットを自動構築する。
我々は、GPT-4oの評価能力を7BオープンソースMLLM、MiniCPM-V-2.6に効果的に蒸留するための革新的なトレーニング戦略を設計する。
実験結果から,我々の蒸留したオープンソースMLLMは,現在のGPT-4oベースラインよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-11-23T08:06:06Z) - LEGENT: Open Platform for Embodied Agents [60.71847900126832]
LEGENTはLarge Language Models (LLM) とLarge Multimodal Models (LMM) を用いたエンボディエージェントを開発するためのオープンでスケーラブルなプラットフォームである。
LEGENTはリッチでインタラクティブな3D環境を提供し、コミュニケーション可能でアクション可能なエージェントをユーザフレンドリーなインターフェースと組み合わせている。
実験では、EGENT生成データに基づいて訓練された胚性視覚言語モデルが、エンボディタスクにおいてGPT-4Vを超える。
論文 参考訳(メタデータ) (2024-04-28T16:50:12Z) - Enhancing the General Agent Capabilities of Low-Parameter LLMs through Tuning and Multi-Branch Reasoning [56.82041895921434]
オープンソースの事前訓練された大規模言語モデル(LLM)は、強力な言語理解と生成能力を示す。
現実世界の複雑な問題に対処するエージェントとして使用される場合、ChatGPTやGPT-4のような大型の商用モデルに比べてパフォーマンスははるかに劣る。
論文 参考訳(メタデータ) (2024-03-29T03:48:12Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - ChatGPT as your Personal Data Scientist [0.9689893038619583]
本稿では,ChatGPTを用いた対話型データサイエンスフレームワークについて紹介する。
データビジュアライゼーション、タスクの定式化、予測エンジニアリング、結果概要と勧告の4つのダイアログ状態を中心に、私たちのモデルが中心になっています。
要約して,会話データ科学の新たな概念が実現可能であることを証明するとともに,複雑なタスクを解く上でLLMが有効であることを示すエンド・ツー・エンド・エンド・システムを開発した。
論文 参考訳(メタデータ) (2023-05-23T04:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。