論文の概要: DeepForm: Reasoning Large Language Model for Communication System Formulation
- arxiv url: http://arxiv.org/abs/2506.08551v1
- Date: Tue, 10 Jun 2025 08:16:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.869817
- Title: DeepForm: Reasoning Large Language Model for Communication System Formulation
- Title(参考訳): DeepForm: 通信システム定式化のための大規模言語モデルの提案
- Authors: Panlong Wu, Ting Wang, Yifei Zhong, Haoqi Zhang, Zitong Wang, Fangxin Wang,
- Abstract要約: 通信システムの定式化は6Gと将来の無線技術の発展に不可欠である。
我々は,CSFRC(Communication System Formulation Reasoning Corpus)と呼ばれる,世界初となる大規模かつオープンソースなデータセットを,このドメインに対して慎重にキュレートした。
フレームワークには2段階のトレーニング戦略が採用されている。第1に,Chain-of-Thought(CoT)データを用いてドメイン知識を抽出し,第2にルールベース強化学習(Reinforcement Learning, RL)アルゴリズム,第2にReMaxに基づくC-ReMax。
- 参考スコア(独自算出の注目度): 14.249525913644884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Communication system formulation is critical for advancing 6G and future wireless technologies, yet it remains a complex, expertise-intensive task. While Large Language Models (LLMs) offer potential, existing general-purpose models often lack the specialized domain knowledge, nuanced reasoning capabilities, and access to high-quality, domain-specific training data required for adapting a general LLM into an LLM specially for communication system formulation. To bridge this gap, we introduce DeepForm, the first reasoning LLM specially for automated communication system formulation. We propose the world-first large-scale, open-source dataset meticulously curated for this domain called Communication System Formulation Reasoning Corpus (CSFRC). Our framework employs a two-stage training strategy: first, Supervised Fine-Tuning (SFT) with Chain-of-Thought (CoT) data to distill domain knowledge; second, a novel rule-based Reinforcement Learning (RL) algorithm, C-ReMax based on ReMax, to cultivate advanced modeling capabilities and elicit sophisticated reasoning patterns like self-correction and verification. Extensive experiments demonstrate that our model achieves state-of-the-art performance, significantly outperforming larger proprietary LLMs on diverse senerios. We will release related resources to foster further research in this area after the paper is accepted.
- Abstract(参考訳): 通信システムの定式化は6Gと将来の無線技術の発展に不可欠だが、それでも複雑で専門的な課題である。
LLM(Large Language Models)は潜在的な可能性をもっているが、既存の汎用モデルは、特殊なドメイン知識、ニュアンスな推論能力、および汎用LLMをLLMに適応させるために必要な高品質なドメイン固有トレーニングデータへのアクセスを欠いていることが多い。
このギャップを埋めるために、我々はDeepFormを紹介します。
本稿では,CSFRC(Communication System Formulation Reasoning Corpus)と呼ばれる,世界初となる大規模オープンソースデータセットを提案する。
第1に、ルールベース強化学習(RL)アルゴリズム、第2に、ReMaxに基づくC-ReMaxアルゴリズムを用いて、高度なモデリング能力を育成し、自己補正や検証のような洗練された推論パターンを誘発する。
大規模な実験により,本モデルが最先端性能を達成し,多種多様なセネリオス上でのLLMを著しく上回る結果が得られた。
論文が受理された後、この分野のさらなる研究を促進するため、関連資料を公表する。
関連論文リスト
- General-Reasoner: Advancing LLM Reasoning Across All Domains [64.70599911897595]
強化学習(RL)は近年,大規模言語モデル(LLM)の推論能力の向上に強い可能性を示している。
本稿では,多分野にわたるLSM推論能力の向上を目的とした,新たなトレーニングパラダイムであるGeneral-Reasonerを提案する。
私たちは一連のモデルをトレーニングし、物理学、化学、金融、電子工学など幅広い分野をカバーする幅広いデータセットでそれらを評価します。
論文 参考訳(メタデータ) (2025-05-20T17:41:33Z) - Enhancing Large Language Models (LLMs) for Telecommunications using Knowledge Graphs and Retrieval-Augmented Generation [52.8352968531863]
大規模言語モデル(LLM)は、汎用自然言語処理タスクにおいて大きな進歩を遂げている。
本稿では,知識グラフ(KG)と検索拡張生成(RAG)技術を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-31T15:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。