論文の概要: Helios: A Foundational Language Model for Smart Energy Knowledge Reasoning and Application
- arxiv url: http://arxiv.org/abs/2512.19299v1
- Date: Mon, 22 Dec 2025 11:43:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.73221
- Title: Helios: A Foundational Language Model for Smart Energy Knowledge Reasoning and Application
- Title(参考訳): Helios: スマートエネルギー知識推論と応用のための基礎言語モデル
- Authors: Haoyu Jiang, Fanjie Zeng, Boan Qu, Xiaojie Lin, Wei Zhong,
- Abstract要約: Heliosは、スマートエネルギードメインに適した、大きな言語モデルである。
Enersysは、エンドツーエンドのデータセット構築のためのマルチエージェント協調フレームワークである。
スマートエネルギーシナリオでLLMを評価するためのベンチマークであるEnerBenchをリリースする。
- 参考スコア(独自算出の注目度): 7.294864378911716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the global drive toward carbon neutrality, deeply coordinated smart energy systems underpin industrial transformation. However, the interdisciplinary, fragmented, and fast-evolving expertise in this domain prevents general-purpose LLMs, which lack domain knowledge and physical-constraint awareness, from delivering precise engineering-aligned inference and generation. To address these challenges, we introduce Helios, a large language model tailored to the smart energy domain, together with a comprehensive suite of resources to advance LLM research in this field. Specifically, we develop Enersys, a multi-agent collaborative framework for end-to-end dataset construction, through which we produce: (1) a smart energy knowledge base, EnerBase, to enrich the model's foundational expertise; (2) an instruction fine-tuning dataset, EnerInstruct, to strengthen performance on domain-specific downstream tasks; and (3) an RLHF dataset, EnerReinforce, to align the model with human preferences and industry standards. Leveraging these resources, Helios undergoes large-scale pretraining, SFT, and RLHF. We also release EnerBench, a benchmark for evaluating LLMs in smart energy scenarios, and demonstrate that our approach significantly enhances domain knowledge mastery, task execution accuracy, and alignment with human preferences.
- Abstract(参考訳): 炭素中立へのグローバルな推進力では、深く調整されたスマートエネルギーシステムが産業変革を支えている。
しかし、この領域における学際的で断片化され、急速に進化する専門知識は、ドメインの知識と物理的制約の認識が欠如している汎用LLMが、正確な工学的な推論と生成を提供するのを妨げている。
これらの課題に対処するために,我々は,スマートエネルギー分野に適した大規模言語モデルであるHeliosと,この分野でのLLM研究を進めるための総合的なリソーススイートを紹介する。
具体的には,エンド・ツー・エンドのデータセット構築のためのマルチエージェント協調フレームワークであるEnersysを開発した。(1)スマートエネルギー知識ベースであるEnerBase,(2)ドメイン固有の下流タスクのパフォーマンスを高めるための命令微調整データセットであるEnerInstruct,(3)RLHFデータセットであるEnerReinforceは,モデルを人間の好みや業界標準と整合させる。
これらのリソースを活用して、Heliosは大規模な事前トレーニング、SFT、RLHFを行っている。
また、スマートエネルギーシナリオでLLMを評価するためのベンチマークであるEnerBenchをリリースし、我々のアプローチがドメイン知識の習得、タスク実行の正確性、人間の好みとの整合性を著しく向上させることを示した。
関連論文リスト
- General-Reasoner: Advancing LLM Reasoning Across All Domains [64.70599911897595]
強化学習(RL)は近年,大規模言語モデル(LLM)の推論能力の向上に強い可能性を示している。
本稿では,多分野にわたるLSM推論能力の向上を目的とした,新たなトレーニングパラダイムであるGeneral-Reasonerを提案する。
私たちは一連のモデルをトレーニングし、物理学、化学、金融、電子工学など幅広い分野をカバーする幅広いデータセットでそれらを評価します。
論文 参考訳(メタデータ) (2025-05-20T17:41:33Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Injecting Domain-Specific Knowledge into Large Language Models: A Comprehensive Survey [45.918134803778834]
大規模言語モデル(LLM)は、自然言語理解、テキスト要約、機械翻訳といった様々なタスクにおいて顕著な成功を収めている。
彼らの汎用的な性質は、医療、化学、法的な分析といった専門的な知識を必要とするドメイン固有のアプリケーションにおいて、その効果を制限していることが多い。
これを解決するために、研究者はドメイン固有の知識を統合することでLLMを強化する様々な方法を模索してきた。
論文 参考訳(メタデータ) (2025-02-15T07:43:43Z) - INDUS: Effective and Efficient Language Models for Scientific Applications [8.653859684720231]
言語モデル(LLM)は、自然言語処理(NLP)タスクにおいて顕著な結果を示した。
我々は、地球科学、生物学、物理学、生物物理学、惑星科学、天体物理学の密接に関連する分野に合わせた総合的なLLMスイートであるINDUSを開発した。
本稿では,RoBERTa(汎用)とSCIBERT(ドメイン固有)の両方のエンコーダにおいて,新たなタスクや関心領域における既存のタスクよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-17T12:15:07Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。