論文の概要: Knowledge Sharing in Manufacturing using Large Language Models: User
Evaluation and Model Benchmarking
- arxiv url: http://arxiv.org/abs/2401.05200v2
- Date: Mon, 26 Feb 2024 12:46:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 04:29:18.150080
- Title: Knowledge Sharing in Manufacturing using Large Language Models: User
Evaluation and Model Benchmarking
- Title(参考訳): 大規模言語モデルを用いた製造における知識共有:ユーザ評価とモデルベンチマーク
- Authors: Samuel Kernan Freire, Chaofan Wang, Mina Foosherian, Stefan Wellsandt,
Santiago Ruiz-Arenas and Evangelos Niforatos
- Abstract要約: 大規模言語モデル(LLM)ベースのシステムは、専門家が共有する工場文書や知識から情報を取得するように設計されている。
システムは、オペレータからの問い合わせに効率的に答え、新しい知識の共有を容易にすることを目的としている。
- 参考スコア(独自算出の注目度): 7.976952274443561
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in natural language processing enable more intelligent ways
to support knowledge sharing in factories. In manufacturing, operating
production lines has become increasingly knowledge-intensive, putting strain on
a factory's capacity to train and support new operators. This paper introduces
a Large Language Model (LLM)-based system designed to retrieve information from
the extensive knowledge contained in factory documentation and knowledge shared
by expert operators. The system aims to efficiently answer queries from
operators and facilitate the sharing of new knowledge. We conducted a user
study at a factory to assess its potential impact and adoption, eliciting
several perceived benefits, namely, enabling quicker information retrieval and
more efficient resolution of issues. However, the study also highlighted a
preference for learning from a human expert when such an option is available.
Furthermore, we benchmarked several commercial and open-sourced LLMs for this
system. The current state-of-the-art model, GPT-4, consistently outperformed
its counterparts, with open-source models trailing closely, presenting an
attractive option given their data privacy and customization benefits. In
summary, this work offers preliminary insights and a system design for
factories considering using LLM tools for knowledge management.
- Abstract(参考訳): 自然言語処理の最近の進歩により、工場における知識共有を支援するよりインテリジェントな方法が実現されている。
製造業では、生産ラインは知識集約化が進み、新しい事業者を訓練し支援する工場の能力に負担がかかっている。
本稿では,工場文書に含まれる豊富な知識と専門家が共有する知識から情報を取得するためのLarge Language Model (LLM) システムを提案する。
本システムは,オペレータからの問い合わせに効率的に答え,新たな知識の共有を容易にすることを目的としている。
我々は,その影響と採用可能性を評価するため,工場でユーザ調査を行い,情報検索の迅速化と課題解決の効率化という,いくつかの認識上のメリットを示唆した。
しかし、この研究は、そのような選択肢が利用できるとき、人間の専門家から学ぶことを好むことも強調した。
さらに,本システムのための商用およびオープンソース LLM のベンチマークを行った。
現在の最先端モデルであるgpt-4は、常にそれよりも優れており、オープンソースモデルは、データのプライバシとカスタマイズのメリットを考えると魅力的な選択肢を示している。
要約して,本研究は,LLMツールを知識管理に活用することを検討する工場において,予備的な洞察とシステム設計を提供する。
関連論文リスト
- A Knowledge Plug-and-Play Test Bed for Open-domain Dialogue Generation [51.31429493814664]
マルチソース対話知識の選択と応答生成を評価するために,ウィキペディアのマルチソースウィザードというベンチマークを示す。
本稿では,すでに訓練済みの対話モデルを用いて,未確認の情報源からの新たなサポート知識を利用するための新たな課題である対話知識プラグイン・アンド・プレイを提案する。
論文 参考訳(メタデータ) (2024-03-06T06:54:02Z) - Breaking the Barrier: Utilizing Large Language Models for Industrial
Recommendation Systems through an Inferential Knowledge Graph [19.201697767418597]
大規模言語モデルに基づく補完的知識強化推薦システム(LLM-KERec)を提案する。
アイテムとユーザ情報から統一された概念用語を抽出し、ユーザ意図の遷移をキャプチャし、新しいアイテムに適応する。
3つの業界データセットで実施された大規模な実験は、既存のアプローチと比較して、我々のモデルの大幅な性能向上を実証している。
論文 参考訳(メタデータ) (2024-02-21T12:22:01Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via
Infuser-Guided Knowledge Integration [61.554209059971576]
大規模言語モデル(LLM)は、様々な領域にまたがる顕著なオープンジェネレーション機能を示している。
新しい知識を注入すると、以前に獲得した知識を忘れるリスクが生じる。
Infuser-Guided Knowledge Integration フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - ChatSOS: LLM-based knowledge Q&A system for safety engineering [0.0]
本研究では,LLMに基づく安全工学のQ&Aシステムを導入し,モデルの理解と応答精度を向上させる。
我々は、外部知識データベースを組み込むために、即時エンジニアリングを採用し、LLMを最新かつ信頼性の高い情報で強化する。
以上の結果から,外部知識の統合は,奥行き問題解析や自律的なタスク割り当てにおいて,LLMの能力を大幅に向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-14T03:25:23Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - Language Models as a Knowledge Source for Cognitive Agents [9.061356032792954]
言語モデル (LM) は大量のコーパスで訓練された文補完エンジンである。
本稿では,認知システムのための新たな知識源として言語モデルを用いる上での課題と機会について概説する。
また、認知システムが提供する能力を用いて、言語モデルからの知識抽出を改善する方法も特定する。
論文 参考訳(メタデータ) (2021-09-17T01:12:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。