論文の概要: Knowledge Sharing in Manufacturing using Large Language Models: User
Evaluation and Model Benchmarking
- arxiv url: http://arxiv.org/abs/2401.05200v1
- Date: Wed, 10 Jan 2024 14:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 14:16:46.834382
- Title: Knowledge Sharing in Manufacturing using Large Language Models: User
Evaluation and Model Benchmarking
- Title(参考訳): 大規模言語モデルを用いた製造における知識共有:ユーザ評価とモデルベンチマーク
- Authors: Samuel Kernan Freire, Chaofan Wang, Mina Foosherian, Stefan Wellsandt,
Santiago Ruiz-Arenas and Evangelos Niforatos
- Abstract要約: 大規模言語モデル(LLM)ベースのシステムは、工場文書に含まれる広範な知識を使用するように設計されている。
システムは、オペレータからの問い合わせに効率的に答え、新しい知識の共有を容易にすることを目的としている。
- 参考スコア(独自算出の注目度): 7.976952274443561
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Managing knowledge efficiently is crucial for organizational success. In
manufacturing, operating factories has become increasing knowledge-intensive
putting strain on the factory's capacity to train and support new operators. In
this paper, we introduce a Large Language Model (LLM)-based system designed to
use the extensive knowledge contained in factory documentation. The system aims
to efficiently answer queries from operators and facilitate the sharing of new
knowledge. To assess its effectiveness, we conducted an evaluation in a factory
setting. The results of this evaluation demonstrated the system's benefits;
namely, in enabling quicker information retrieval and more efficient resolution
of issues. However, the study also highlighted a preference for learning from a
human expert when such an option is available. Furthermore, we benchmarked
several closed and open-sourced LLMs for this system. GPT-4 consistently
outperformed its counterparts, with open-source models like StableBeluga2
trailing closely, presenting an attractive option given its data privacy and
customization benefits. Overall, this work offers preliminary insights for
factories considering using LLM-tools for knowledge management.
- Abstract(参考訳): 組織の成功には、知識を効率的に管理することが不可欠です。
製造業では、新業者の育成と支援のため、工場の能力に知識を集中的に注ぐ工場が増えている。
本稿では,工場文書に含まれる膨大な知識を活用するために,大規模言語モデル(LLM)に基づくシステムを提案する。
本システムは,オペレータからの問い合わせに効率的に答え,新たな知識の共有を容易にすることを目的としている。
有効性を評価するため,工場環境で評価を行った。
この評価の結果、より迅速な情報検索とより効率的な問題解決を可能にするシステムの利点が示された。
しかし、この研究は、そのような選択肢が利用できるとき、人間の専門家から学ぶことを好むことも強調した。
さらに,本システムのために,複数のオープンソースLCMをベンチマークした。
GPT-4は、StableBeluga2のようなオープンソースのモデルが、データプライバシとカスタマイズのメリットから魅力的な選択肢を提示している。
本研究は,LLMツールを知識管理に活用することを検討する工場に対して,予備的な洞察を提供する。
関連論文リスト
- Large Language Models for Manufacturing [41.12098478080648]
大規模言語モデル(LLM)は製造業を変革する可能性があり、プロセスを最適化し、効率を改善し、革新を促進する新しい機会を提供する。
本稿では,LLMを製造分野に統合し,製造のさまざまな側面を自動化・拡張する可能性に焦点を当てる。
論文 参考訳(メタデータ) (2024-10-28T18:13:47Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Enhancing Question Answering for Enterprise Knowledge Bases using Large Language Models [46.51659135636255]
EKRGは大規模言語モデル(LLM)に基づく新しい検索生成フレームワークである
知識検索者の学習に十分な文書検索ペアを生成するために,LLMを用いた命令チューニング手法を提案する。
我々は、学習過程の効率化を図るために、関連性に敏感な教師学生学習戦略を開発する。
論文 参考訳(メタデータ) (2024-04-10T10:38:17Z) - ChatSOS: LLM-based knowledge Q&A system for safety engineering [0.0]
本研究では,LLMに基づく安全工学のQ&Aシステムを導入し,モデルの理解と応答精度を向上させる。
我々は、外部知識データベースを組み込むために、即時エンジニアリングを採用し、LLMを最新かつ信頼性の高い情報で強化する。
以上の結果から,外部知識の統合は,奥行き問題解析や自律的なタスク割り当てにおいて,LLMの能力を大幅に向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-14T03:25:23Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。