論文の概要: Towards EnergyGPT: A Large Language Model Specialized for the Energy Sector
- arxiv url: http://arxiv.org/abs/2509.07177v1
- Date: Mon, 08 Sep 2025 19:48:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.097043
- Title: Towards EnergyGPT: A Large Language Model Specialized for the Energy Sector
- Title(参考訳): エネルギー分野に特化した大規模言語モデル「EnergyGPT」を目指して
- Authors: Amal Chebbi, Babajide Kolade,
- Abstract要約: 本稿では,エネルギー分野に適したドメイン特化言語モデルであるEnergyGPTを紹介する。
データ収集とキュレーションを含む、完全な開発パイプラインを提示します。
当社のトレーニング戦略は,大規模なインフラストラクチャを必要とせずに,ドメインの関連性やパフォーマンスの向上を可能にすることを実証しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models have demonstrated impressive capabilities across various domains. However, their general-purpose nature often limits their effectiveness in specialized fields such as energy, where deep technical expertise and precise domain knowledge are essential. In this paper, we introduce EnergyGPT, a domain-specialized language model tailored for the energy sector, developed by fine-tuning LLaMA 3.1-8B model using Supervised Fine-Tuning on a high-quality, curated corpus of energy-related texts. We present a complete development pipeline, including data collection and curation, model fine-tuning, benchmark design and LLM-judge choice, evaluation and deployment. Through this work, we demonstrate that our training strategy enables improvements in domain relevance and performance without the need for large-scale infrastructure. By evaluating the performance of the model using domain-specific question-answering benchmarks, our results demonstrate that EnergyGPT outperforms the base model in most of the energy-related language understanding and generation tasks.
- Abstract(参考訳): 大規模言語モデルは、様々な領域にまたがって印象的な機能を示している。
しかしながら、それらの汎用的な性質は、深い技術的専門知識と正確なドメイン知識が不可欠であるエネルギーのような専門分野における有効性を制限することが多い。
本稿では,エネルギー分野に特化したドメイン特化言語モデルであるEnergyGPTを紹介する。
データ収集とキュレーション、モデル微調整、ベンチマーク設計、LCM-judgeの選択、評価、デプロイを含む完全な開発パイプラインを提供する。
本研究を通じて,大規模インフラストラクチャを必要とせずに,ドメインの関連性やパフォーマンスを改善するためのトレーニング戦略が実証された。
ドメイン固有の質問応答ベンチマークを用いてモデルの性能を評価することにより,エネルギー関連言語理解・生成タスクの大部分において,EnergyGPTがベースモデルより優れていることを示す。
関連論文リスト
- Comparing energy consumption and accuracy in text classification inference [0.9208007322096533]
本研究は,テキスト分類推定におけるモデル精度とエネルギー消費のトレードオフを系統的に評価する。
精度の点で最高の性能モデルはエネルギー効率も良いが、より大きなLCMはより低い分類精度ではるかに多くのエネルギーを消費する傾向がある。
論文 参考訳(メタデータ) (2025-08-19T18:00:08Z) - Energy Considerations of Large Language Model Inference and Efficiency Optimizations [28.55549828393871]
大規模言語モデル(LLM)の規模と採用が拡大するにつれて、その計算と環境コストは上昇し続けている。
多様なNLPおよびAIワークロードにまたがる共通推論効率最適化のエネルギー含意を系統的に分析する。
本研究により, 推定効率最適化の適切な適用により, 最適化されていないベースラインから最大73%のエネルギー使用量を削減できることが判明した。
論文 参考訳(メタデータ) (2025-04-24T15:45:05Z) - Towards Sustainable NLP: Insights from Benchmarking Inference Energy in Large Language Models [20.730898779471556]
大きな言語モデル(LLM)は、その例外的な生成能力と汎用性によって、ますます認識されている。
本研究では,幅広いNLPタスクを対象としたLLM推論エネルギーの総合的なベンチマークを行う。
量子化と最適なバッチサイズは、目的のプロンプトフレーズとともに、エネルギー使用量を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2025-02-08T15:34:52Z) - WorldGPT: Empowering LLM as Multimodal World Model [51.243464216500975]
MLLM(Multimodal Large Language Model)に基づく汎用世界モデルWorldGPTを紹介する。
WorldGPTは、さまざまなドメインにまたがる数百万のビデオを分析して、世界ダイナミクスの理解を得る。
マルチモーダル状態遷移予測ベンチマークWorldNetの評価を行う。
論文 参考訳(メタデータ) (2024-04-28T14:42:02Z) - Advancing Building Energy Modeling with Large Language Models: Exploration and Case Studies [2.8879609855863713]
人工知能の急速な進歩は、ChatGPTのような大きな言語モデルの出現を促している。
本稿では,大規模言語モデルの革新的統合とエネルギーモデリングソフトウェアの構築について考察する。
論文 参考訳(メタデータ) (2024-02-14T21:02:07Z) - On Feature Diversity in Energy-based Models [98.78384185493624]
エネルギーベースモデル(EBM)は通常、異なる特徴の組み合わせを学習し、入力構成ごとにエネルギーマッピングを生成する内部モデルによって構成される。
EBMのほぼ正しい(PAC)理論を拡張し,EBMの性能に及ぼす冗長性低減の影響を解析した。
論文 参考訳(メタデータ) (2023-06-02T12:30:42Z) - Exploring the Trade-Offs: Unified Large Language Models vs Local
Fine-Tuned Models for Highly-Specific Radiology NLI Task [49.50140712943701]
NLIタスクにおけるChatGPT/GPT-4の性能評価を行い、タスク関連データサンプルに特化して微調整された他のモデルと比較する。
また,ChatGPT/GPT-4の推論能力について,様々な推論難易度を導入して総合的な調査を行った。
論文 参考訳(メタデータ) (2023-04-18T17:21:48Z) - Energy Transformer [64.22957136952725]
我々の研究は、機械学習における有望な3つのパラダイム、すなわち注意機構、エネルギーベースモデル、連想記憶の側面を組み合わせる。
本稿では,エネルギー変換器(ET,Energy Transformer)と呼ばれる新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-14T18:51:22Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。