論文の概要: XiHeFusion: Harnessing Large Language Models for Science Communication in Nuclear Fusion
- arxiv url: http://arxiv.org/abs/2502.05615v1
- Date: Sat, 08 Feb 2025 15:47:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:34:49.735414
- Title: XiHeFusion: Harnessing Large Language Models for Science Communication in Nuclear Fusion
- Title(参考訳): XiHeFusion:核融合における科学コミュニケーションのための大規模言語モデル
- Authors: Xiao Wang, Qingquan Yang, Fuling Wang, Qiang Chen, Wentao Wu, Yu Jin, Jingtao Jiang, Liye Jin, Bo Jiang, Dengdi Sun, Wanli Lv, Meiwen Chen, Zehua Chen, Guosheng Xu, Jin Tang,
- Abstract要約: 本稿では,核融合分野における最初の大規模モデルであるXiHeFusionを提案する。
我々は、このモデルの訓練を支援するために、核融合タスクに関する多元的知識を収集し、共有クロール、eBooks、arXiv、論文等を収集した。
- 参考スコア(独自算出の注目度): 18.700322392007614
- License:
- Abstract: Nuclear fusion is one of the most promising ways for humans to obtain infinite energy. Currently, with the rapid development of artificial intelligence, the mission of nuclear fusion has also entered a critical period of its development. How to let more people to understand nuclear fusion and join in its research is one of the effective means to accelerate the implementation of fusion. This paper proposes the first large model in the field of nuclear fusion, XiHeFusion, which is obtained through supervised fine-tuning based on the open-source large model Qwen2.5-14B. We have collected multi-source knowledge about nuclear fusion tasks to support the training of this model, including the common crawl, eBooks, arXiv, dissertation, etc. After the model has mastered the knowledge of the nuclear fusion field, we further used the chain of thought to enhance its logical reasoning ability, making XiHeFusion able to provide more accurate and logical answers. In addition, we propose a test questionnaire containing 180+ questions to assess the conversational ability of this science popularization large model. Extensive experimental results show that our nuclear fusion dialogue model, XiHeFusion, can perform well in answering science popularization knowledge. The pre-trained XiHeFusion model is released on https://github.com/Event-AHU/XiHeFusion.
- Abstract(参考訳): 核融合は、人間が無限のエネルギーを得る最も有望な方法の1つである。
現在、人工知能の急速な発展とともに、核融合のミッションも発展の重要な時期に入った。
核融合をもっと多くの人に理解させ、研究に参加させることは、核融合の実施を加速させる効果的な方法の1つだ。
本稿では,核融合分野における最初の大規模モデルであるXiHeFusionを提案する。
我々は、このモデルの訓練を支援するために、核融合タスクに関する多元的知識を収集し、共通のクロール、eBooks、arXiv、論文等を収集した。
モデルが核融合分野の知識を習得した後、我々はさらに思考の連鎖を利用してその論理的推論能力を高め、XiHeFusionはより正確で論理的な答えを提供できるようにした。
さらに,この科学普及型大規模モデルの会話能力を評価するために,180以上の質問を含むテストアンケートを提案する。
核融合対話モデルXiHeFusionは,科学普及の知識に答える上で有効であることを示す。
トレーニング済みのXiHeFusionモデルはhttps://github.com/Event-AHU/XiHeFusionで公開されている。
関連論文リスト
- Diff-PIC: Revolutionizing Particle-In-Cell Nuclear Fusion Simulation with Diffusion Models [38.46100610494588]
核融合は究極的な解決策と見なされ、ほぼ1世紀にわたって集中的な研究の焦点となっている。
慣性凝縮核融合の最近の進歩は核融合研究に大きな注目を集めている。
レーザー-プラズマ相互作用は核融合安定性と効率を確保するために重要である。
論文 参考訳(メタデータ) (2024-08-03T19:42:31Z) - Inertial Confinement Fusion Forecasting via Large Language Models [48.76222320245404]
本研究では,従来の貯水池計算パラダイムとLarge Language Models(LLM)の新たな統合である$textbfLPI-LLM$を紹介する。
我々は、$textitLLM-anchored Reservoir$, augmented with a $textitFusion-specific Prompt$を提案する。
また、最初の$textttLPI$ベンチマークである$textbfLPI4AI$も提示します。
論文 参考訳(メタデータ) (2024-07-15T05:46:44Z) - FusionBench: A Comprehensive Benchmark of Deep Model Fusion [78.80920533793595]
ディープモデル融合(Deep Model fusion)とは、複数のディープニューラルネットワークの予測やパラメータを単一のモデルに統合する手法である。
FusionBenchは、ディープモデル融合に特化した最初の包括的なベンチマークである。
論文 参考訳(メタデータ) (2024-06-05T13:54:28Z) - Deep Model Fusion: A Survey [37.39100741978586]
Deep Model fusion/mergingは、複数のディープラーニングモデルのパラメータや予測を単一のモデルにマージする、新たなテクニックである。
高い計算コスト、高次元パラメータ空間、異なる異種モデル間の干渉など、いくつかの課題に直面している。
論文 参考訳(メタデータ) (2023-09-27T14:40:12Z) - Information Fusion for Assistance Systems in Production Assessment [49.40442046458756]
証拠理論を用いたn個の情報ソースの融合のための枠組みを提供する。
本稿では,機械データに基づくアンサンブル分類器とエキスパート中心モデルという,2つの主要な情報源の情報融合手法を提案する。
本稿では,エビデンス理論を用いたモデル更新手法を提案することにより,データドリフトの問題に対処する。
論文 参考訳(メタデータ) (2023-08-31T22:08:01Z) - Deep Equilibrium Multimodal Fusion [88.04713412107947]
多重モーダル融合は、複数のモーダルに存在する相補的な情報を統合し、近年多くの注目を集めている。
本稿では,動的多モード核融合プロセスの固定点を求めることにより,多モード核融合に対する新しいDeep equilibrium (DEQ)法を提案する。
BRCA,MM-IMDB,CMU-MOSI,SUN RGB-D,VQA-v2の実験により,DEC融合の優位性が示された。
論文 参考訳(メタデータ) (2023-06-29T03:02:20Z) - Deep-neural-network approach to solving the ab initio nuclear structure
problem [0.799536002595393]
深層学習型変分量子モンテカルロアプローチであるFeynmanNetを開発した。
FeynmanNetは4$He,6$Li,そして最大16$Oで、地上のエネルギーと波動関数の非常に正確な解を提供できることを示す。
論文 参考訳(メタデータ) (2022-11-25T10:14:04Z) - Kformer: Knowledge Injection in Transformer Feed-Forward Layers [107.71576133833148]
そこで我々は,Transformerのフィードフォワード層を通じて外部知識を組み込んだ新しい知識融合モデルKformerを提案する。
FFNに単に知識を注入するだけで、事前学習された言語モデルの能力が向上し、現在の知識融合法が促進されることを実証的に見出した。
論文 参考訳(メタデータ) (2022-01-15T03:00:27Z) - A novel multimodal fusion network based on a joint coding model for lane
line segmentation [22.89466867866239]
本稿では,情報理論の観点から新しいマルチモーダル融合アーキテクチャを提案する。
LiDARカメラ融合ネットワークを用いた実用性を発揮します。
我々の最適核融合ネットワークは85%以上の車線精度と98.7%以上の全体を達成する。
論文 参考訳(メタデータ) (2021-03-20T06:47:58Z) - Variational Monte Carlo calculations of $\mathbf{A\leq 4}$ nuclei with
an artificial neural-network correlator ansatz [62.997667081978825]
光核の基底状態波動関数をモデル化するためのニューラルネットワーク量子状態アンサッツを導入する。
我々は、Aleq 4$核の結合エネルギーと点核密度を、上位のピオンレス実効場理論から生じるものとして計算する。
論文 参考訳(メタデータ) (2020-07-28T14:52:28Z) - NukeBERT: A Pre-trained language model for Low Resource Nuclear Domain [15.831633922457973]
核エネルギーと原子エネルギーは、注釈のないデータを利用する際には未発見のままである。
7000の核ドメインに関する研究論文から新しいデータセットが作成された。
NukeBERT は BERT 語彙を学習データが少ないタスクに適合させる新しい技法を取り入れたものである。
論文 参考訳(メタデータ) (2020-03-30T21:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。