論文の概要: MiningGPT -- A Domain-Specific Large Language Model for the Mining Industry
- arxiv url: http://arxiv.org/abs/2412.01189v1
- Date: Mon, 02 Dec 2024 06:47:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:47:01.811851
- Title: MiningGPT -- A Domain-Specific Large Language Model for the Mining Industry
- Title(参考訳): MiningGPT - 鉱業のためのドメイン特有な大規模言語モデル
- Authors: Kurukulasooriya Fernando ana Gianluca Demartini,
- Abstract要約: マイニングGPTは,マイニングドメイン固有の命令追従 7B パラメータ LLM モデルであり,マイニングドメイン知識テストのスコアは親モデル Mistral 7B よりも14%高かった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recent advancements of generative LLMs (Large Language Models) have exhibited human-like language capabilities but have shown a lack of domain-specific understanding. Therefore, the research community has started the development of domain-specific LLMs for many domains. In this work we focus on discussing how to build mining domain-specific LLMs, as the global mining industry contributes significantly to the worldwide economy. We report on MiningGPT, a mining domain-specific instruction-following 7B parameter LLM model which showed a 14\% higher mining domain knowledge test score as compared to its parent model Mistral 7B instruct.
- Abstract(参考訳): 近年のLLM(Large Language Models)の進歩は、人間のような言語能力を示しているが、ドメイン固有の理解の欠如を示している。
そのため、研究コミュニティはドメイン固有のLLMの開発を多くのドメインで開始した。
本研究は、世界の鉱業が世界経済に大きく貢献する中で、ドメイン固有のLLMの構築方法について論じることに焦点を当てる。
マイニングGPTは,マイニングドメイン固有の命令追従 7B パラメータ LLM モデルであり,マイニングドメイン知識テストのスコアは親モデル Mistral 7B インストラクションと比較して 14 %高かった。
関連論文リスト
- Large Language Model for Multi-Domain Translation: Benchmarking and Domain CoT Fine-tuning [55.107329995417786]
大規模言語モデル(LLM)は、目覚ましい一般的な理解と生成能力を示している。
我々は、25のドイツ語$Leftrightarrow$ Englishと22の中国語$Leftrightarrow$ Englishテストセットを特徴とするマルチドメイン翻訳のベンチマークを確立する。
本稿では,LLMの内在的マルチドメインインテリジェンスを活用し,翻訳性能を向上させるためのドメインチェーン・オブ・シント(CoT)ファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T16:15:04Z) - DoPAMine: Domain-specific Pre-training Adaptation from seed-guided data Mining [2.1534028009401713]
大規模言語モデル(LLM)は、多くの業界領域で効果的に一般化する能力を示している。
LLMは、専門分野や低リソース産業領域での業務を行う際の制限を示す。
本研究では,シードガイドデータマイニングによるDoPAMine:Domain固有の事前トレーニング適応を提案する。
論文 参考訳(メタデータ) (2024-09-30T22:15:58Z) - Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
パフォーマンスギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - PharmaGPT: Domain-Specific Large Language Models for Bio-Pharmaceutical and Chemistry [28.447446808292625]
大規模言語モデル(LLM)は、複雑な機能工学の必要性を最小限に抑えて、自然言語処理(NLP)に革命をもたらした。
PharmaGPTは、バイオ医薬品・化学分野に特化して訓練された、ドメインスペクライズされたLCMのスイートである。
評価の結果,PharmaGPTは特定のベンチマークで既存の一般モデルを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-26T03:43:09Z) - BLADE: Enhancing Black-box Large Language Models with Small Domain-Specific Models [56.89958793648104]
大規模言語モデル(LLM)は多用途であり、多様なタスクに対処することができる。
従来のアプローチでは、ドメイン固有のデータによる継続的な事前トレーニングを行うか、一般的なLLMをサポートするために検索拡張を採用する。
BLADEと呼ばれる新しいフレームワークを提案する。このフレームワークは、小さなDomain-spEcificモデルでブラックボックスのLArge言語モデルを拡張する。
論文 参考訳(メタデータ) (2024-03-27T08:57:21Z) - Linguistic Intelligence in Large Language Models for Telecommunications [5.06945923921948]
自然言語処理(NLP)分野において,Large Language Models (LLMs) が大きな進歩を遂げている。
本研究は,電気通信分野におけるLLMの知識と理解能力を評価することを目的とする。
評価の結果,ゼロショットLLMは現状の細調整モデルに匹敵する性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-02-24T14:01:07Z) - A Self-enhancement Approach for Domain-specific Chatbot Training via
Knowledge Mining and Digest [62.63606958140248]
大規模言語モデル(LLM)は、特定のドメインで複雑な知識要求クエリを扱う際に、しばしば困難に直面する。
本稿では、ドメイン固有のテキストソースから関連知識を効果的に抽出し、LLMを強化する新しいアプローチを提案する。
我々は知識マイナー、すなわちLLMinerを訓練し、関連する文書から質問応答対を自律的に抽出する。
論文 参考訳(メタデータ) (2023-11-17T16:09:10Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - MineGAN++: Mining Generative Models for Efficient Knowledge Transfer to
Limited Data Domains [77.46963293257912]
本稿では,特定の対象領域に最も有益である知識をマイニングした生成モデルのための新しい知識伝達手法を提案する。
これは、各事前訓練されたGANの生成分布のどの部分が対象領域に最も近いサンプルを出力しているかを識別するマイカネットワークを用いて行われる。
提案手法はMineGANと呼ばれ,ターゲット画像が少ない領域に効果的に知識を伝達し,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-28T13:10:56Z) - Mint: MDL-based approach for Mining INTeresting Numerical Pattern Sets [8.583397492080985]
我々は、数値データセットをマイニングする効率的なMDLベースのアルゴリズムMintを提案する。
論文で示された実験では、MintがSlimとRealKrimpの競合より優れていることを示した。
論文 参考訳(メタデータ) (2020-11-30T14:36:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。