論文の概要: Knowledge Sharing in Manufacturing using Large Language Models: User
Evaluation and Model Benchmarking
- arxiv url: http://arxiv.org/abs/2401.05200v2
- Date: Mon, 26 Feb 2024 12:46:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 04:29:18.150080
- Title: Knowledge Sharing in Manufacturing using Large Language Models: User
Evaluation and Model Benchmarking
- Title(参考訳): 大規模言語モデルを用いた製造における知識共有:ユーザ評価とモデルベンチマーク
- Authors: Samuel Kernan Freire, Chaofan Wang, Mina Foosherian, Stefan Wellsandt,
Santiago Ruiz-Arenas and Evangelos Niforatos
- Abstract要約: 大規模言語モデル(LLM)ベースのシステムは、専門家が共有する工場文書や知識から情報を取得するように設計されている。
システムは、オペレータからの問い合わせに効率的に答え、新しい知識の共有を容易にすることを目的としている。
- 参考スコア(独自算出の注目度): 7.976952274443561
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in natural language processing enable more intelligent ways
to support knowledge sharing in factories. In manufacturing, operating
production lines has become increasingly knowledge-intensive, putting strain on
a factory's capacity to train and support new operators. This paper introduces
a Large Language Model (LLM)-based system designed to retrieve information from
the extensive knowledge contained in factory documentation and knowledge shared
by expert operators. The system aims to efficiently answer queries from
operators and facilitate the sharing of new knowledge. We conducted a user
study at a factory to assess its potential impact and adoption, eliciting
several perceived benefits, namely, enabling quicker information retrieval and
more efficient resolution of issues. However, the study also highlighted a
preference for learning from a human expert when such an option is available.
Furthermore, we benchmarked several commercial and open-sourced LLMs for this
system. The current state-of-the-art model, GPT-4, consistently outperformed
its counterparts, with open-source models trailing closely, presenting an
attractive option given their data privacy and customization benefits. In
summary, this work offers preliminary insights and a system design for
factories considering using LLM tools for knowledge management.
- Abstract(参考訳): 自然言語処理の最近の進歩により、工場における知識共有を支援するよりインテリジェントな方法が実現されている。
製造業では、生産ラインは知識集約化が進み、新しい事業者を訓練し支援する工場の能力に負担がかかっている。
本稿では,工場文書に含まれる豊富な知識と専門家が共有する知識から情報を取得するためのLarge Language Model (LLM) システムを提案する。
本システムは,オペレータからの問い合わせに効率的に答え,新たな知識の共有を容易にすることを目的としている。
我々は,その影響と採用可能性を評価するため,工場でユーザ調査を行い,情報検索の迅速化と課題解決の効率化という,いくつかの認識上のメリットを示唆した。
しかし、この研究は、そのような選択肢が利用できるとき、人間の専門家から学ぶことを好むことも強調した。
さらに,本システムのための商用およびオープンソース LLM のベンチマークを行った。
現在の最先端モデルであるgpt-4は、常にそれよりも優れており、オープンソースモデルは、データのプライバシとカスタマイズのメリットを考えると魅力的な選択肢を示している。
要約して,本研究は,LLMツールを知識管理に活用することを検討する工場において,予備的な洞察とシステム設計を提供する。
関連論文リスト
- Large Language Models for Manufacturing [41.12098478080648]
大規模言語モデル(LLM)は製造業を変革する可能性があり、プロセスを最適化し、効率を改善し、革新を促進する新しい機会を提供する。
本稿では,LLMを製造分野に統合し,製造のさまざまな側面を自動化・拡張する可能性に焦点を当てる。
論文 参考訳(メタデータ) (2024-10-28T18:13:47Z) - Efficient and Deployable Knowledge Infusion for Open-World Recommendations via Large Language Models [53.547190001324665]
大規模言語モデル(LLM)からユーザとアイテムに関する2種類の外部知識を取得するためのREKIを提案する。
個別の知識抽出と個別の知識抽出を,異なるシナリオのスケールに合わせて開発し,オフラインのリソース消費を効果的に削減する。
実験によると、REKIは最先端のベースラインより優れており、多くの推奨アルゴリズムやタスクと互換性がある。
論文 参考訳(メタデータ) (2024-08-20T03:45:24Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Enhancing Question Answering for Enterprise Knowledge Bases using Large Language Models [46.51659135636255]
EKRGは大規模言語モデル(LLM)に基づく新しい検索生成フレームワークである
知識検索者の学習に十分な文書検索ペアを生成するために,LLMを用いた命令チューニング手法を提案する。
我々は、学習過程の効率化を図るために、関連性に敏感な教師学生学習戦略を開発する。
論文 参考訳(メタデータ) (2024-04-10T10:38:17Z) - ChatSOS: LLM-based knowledge Q&A system for safety engineering [0.0]
本研究では,LLMに基づく安全工学のQ&Aシステムを導入し,モデルの理解と応答精度を向上させる。
我々は、外部知識データベースを組み込むために、即時エンジニアリングを採用し、LLMを最新かつ信頼性の高い情報で強化する。
以上の結果から,外部知識の統合は,奥行き問題解析や自律的なタスク割り当てにおいて,LLMの能力を大幅に向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-14T03:25:23Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。