論文の概要: Empowering ChatGPT-Like Large-Scale Language Models with Local Knowledge
Base for Industrial Prognostics and Health Management
- arxiv url: http://arxiv.org/abs/2312.14945v1
- Date: Wed, 6 Dec 2023 15:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 13:02:02.150053
- Title: Empowering ChatGPT-Like Large-Scale Language Models with Local Knowledge
Base for Industrial Prognostics and Health Management
- Title(参考訳): 産業予測と健康管理のための地域知識ベースによるchatgptライクな大規模言語モデルの実現
- Authors: Huan Wang, Yan-Fu Li, and Min Xie
- Abstract要約: ChatGPTのような大規模言語モデル(LLM)は、AI分野における新たなイノベーションのラウンドをリードし始めている。
ChatGPTのようなLLMには豊富な知識と強力な言語理解と生成能力があるが、ドメイン固有の専門知識は欠如している。
本研究は,産業用PHMにおける局所知識ベース(LKB)によって付与されるChatGPT-like LLMを用いて,上記の制限を解決することを目的とする。
- 参考スコア(独自算出の注目度): 12.42707487733847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prognostics and health management (PHM) is essential for industrial operation
and maintenance, focusing on predicting, diagnosing, and managing the health
status of industrial systems. The emergence of the ChatGPT-Like large-scale
language model (LLM) has begun to lead a new round of innovation in the AI
field. It has extensively promoted the level of intelligence in various fields.
Therefore, it is also expected further to change the application paradigm in
industrial PHM and promote PHM to become intelligent. Although ChatGPT-Like
LLMs have rich knowledge reserves and powerful language understanding and
generation capabilities, they lack domain-specific expertise, significantly
limiting their practicability in PHM applications. To this end, this study
explores the ChatGPT-Like LLM empowered by the local knowledge base (LKB) in
industrial PHM to solve the above limitations. In addition, we introduce the
method and steps of combining the LKB with LLMs, including LKB preparation, LKB
vectorization, prompt engineering, etc. Experimental analysis of real cases
shows that combining the LKB with ChatGPT-Like LLM can significantly improve
its performance and make ChatGPT-Like LLMs more accurate, relevant, and able to
provide more insightful information. This can promote the development of
ChatGPT-Like LLMs in industrial PHM and promote their efficiency and quality.
- Abstract(参考訳): プログノシクスと健康管理(PHM)は、産業システムの健康状態の予測、診断、管理に重点を置いて、産業の運営と維持に不可欠である。
ChatGPTライクな大規模言語モデル(LLM)の出現は、AI分野における新たなイノベーションのラウンドをリードし始めている。
様々な分野における知性のレベルを広く推進してきた。
したがって、産業用PHMの応用パラダイムをさらに変え、PHMの知的化を促進することも期待されている。
ChatGPTライクなLLMには豊富な知識と強力な言語理解と生成能力があるが、ドメイン固有の専門知識が欠如しており、PHMアプリケーションでの実践性を著しく制限している。
そこで本研究では, 産業用PHMの局所知識ベース(LKB)によって付与されるChatGPT-like LLMについて検討した。
また,LKB作成,LKBベクトル化,プロンプトエンジニアリングなど,LKBとLLMを組み合わせる手法と手順を紹介する。
実例を実験的に分析したところ、LKBとChatGPTライクなLLMを組み合わせることで、その性能が大幅に向上し、ChatGPTライクなLLMをより正確で関連性があり、より洞察に富んだ情報を提供できることがわかった。
これにより、産業用PHMにおけるChatGPT-like LLMの開発を促進し、その効率性と品質を向上させることができる。
関連論文リスト
- Large Language Models as Reliable Knowledge Bases? [60.25969380388974]
大きな言語モデル(LLM)は潜在的な知識ベース(KB)と見なすことができる。
本研究は、信頼性の高いLLM-as-KBが満たすべき基準を定義し、事実性と一貫性に焦点をあてる。
ICLや微調整のような戦略は、LLMをより良くKBにするには失敗している。
論文 参考訳(メタデータ) (2024-07-18T15:20:18Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - KnowGPT: Knowledge Graph based Prompting for Large Language Models [28.605161596626875]
本稿では,知識グラフに基づく PrompTing フレームワーク,すなわち KnowGPT を導入し,ドメイン知識で大規模言語モデルを強化する。
KnowGPTには、KGから最も情報性の高い知識を抽出する知識抽出モジュールと、抽出した知識を自動的に効果的なプロンプトに変換するコンテキスト対応プロンプト構築モジュールが含まれている。
KnowGPTはOpenbookQAのリーダーボードで92.6%の精度を実現している。
論文 参考訳(メタデータ) (2023-12-11T07:56:25Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Knowledge Editing for Large Language Models: A Survey [51.01368551235289]
大規模言語モデル(LLM)の大きな欠点の1つは、事前学習に要する計算コストである。
知識に基づくモデル編集(KME)が注目を集めており、特定の知識を組み込むためにLLMを正確に修正することを目的としている。
論文 参考訳(メタデータ) (2023-10-24T22:18:13Z) - Give Us the Facts: Enhancing Large Language Models with Knowledge Graphs
for Fact-aware Language Modeling [34.59678835272862]
代表的大規模言語モデル(LLM)であるChatGPTは、その強力な創発的能力のために注目されている。
本稿では,知識グラフ強化大言語モデル(KGLLM)によるLLMの強化を提案する。
KGLLMはLLMの事実推論能力を高めるソリューションを提供し、LLM研究のための新たな道を開く。
論文 参考訳(メタデータ) (2023-06-20T12:21:06Z) - Knowledge-Augmented Reasoning Distillation for Small Language Models in
Knowledge-Intensive Tasks [90.11273439036455]
大規模言語モデル(LLM)は知識集約推論タスクにおいて有望なパフォーマンスを示している。
外部知識ベースから得られた知識を付加したLPMから理性を生成するための,小型LMを微調整する新しい手法であるKARDを提案する。
我々は,KARDが知識集約型推論データセットにおいて,小さなT5モデルとGPTモデルの性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2023-05-28T13:00:00Z) - When Giant Language Brains Just Aren't Enough! Domain Pizzazz with
Knowledge Sparkle Dust [15.484175299150904]
本稿では,大規模言語モデルの実践的ユースケースへの適応におけるギャップを埋めることを目的とした経験的分析を提案する。
本研究は, 推論の課題によるケーススタディとして, 保険の質問応答(QA)タスクを選択する。
本課題に基づいて,保険政策ルールブックやDBPediaから抽出した付加的な知識により,LLMに依存した新たなモデルを設計する。
論文 参考訳(メタデータ) (2023-05-12T03:49:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。