論文の概要: Inertial Confinement Fusion Forecasting via Large Language Models
- arxiv url: http://arxiv.org/abs/2407.11098v3
- Date: Mon, 14 Oct 2024 22:47:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 21:21:36.809495
- Title: Inertial Confinement Fusion Forecasting via Large Language Models
- Title(参考訳): 大規模言語モデルによる慣性閉じ込め融合予測
- Authors: Mingkai Chen, Taowen Wang, Shihui Cao, James Chenhao Liang, Chuan Liu, Chunshu Wu, Qifan Wang, Ying Nian Wu, Michael Huang, Chuang Ren, Ang Li, Tong Geng, Dongfang Liu,
- Abstract要約: 本研究では,従来の貯水池計算パラダイムとLarge Language Models(LLM)の新たな統合である$textbfLPI-LLM$を紹介する。
我々は、$textitLLM-anchored Reservoir$, augmented with a $textitFusion-specific Prompt$を提案する。
また、最初の$textttLPI$ベンチマークである$textbfLPI4AI$も提示します。
- 参考スコア(独自算出の注目度): 48.76222320245404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Controlled fusion energy is deemed pivotal for the advancement of human civilization. In this study, we introduce $\textbf{LPI-LLM}$, a novel integration of Large Language Models (LLMs) with classical reservoir computing paradigms tailored to address a critical challenge, Laser-Plasma Instabilities ($\texttt{LPI}$), in Inertial Confinement Fusion ($\texttt{ICF}$). Our approach offers several key contributions: Firstly, we propose the $\textit{LLM-anchored Reservoir}$, augmented with a $\textit{Fusion-specific Prompt}$, enabling accurate forecasting of $\texttt{LPI}$-generated-hot electron dynamics during implosion. Secondly, we develop $\textit{Signal-Digesting Channels}$ to temporally and spatially describe the driver laser intensity across time, capturing the unique characteristics of $\texttt{ICF}$ inputs. Lastly, we design the $\textit{Confidence Scanner}$ to quantify the confidence level in forecasting, providing valuable insights for domain experts to design the $\texttt{ICF}$ process. Extensive experiments demonstrate the superior performance of our method, achieving 1.90 CAE, 0.14 $\texttt{top-1}$ MAE, and 0.11 $\texttt{top-5}$ MAE in predicting Hard X-ray ($\texttt{HXR}$) energies emitted by the hot electrons in $\texttt{ICF}$ implosions, which presents state-of-the-art comparisons against concurrent best systems. Additionally, we present $\textbf{LPI4AI}$, the first $\texttt{LPI}$ benchmark based on physical experiments, aimed at fostering novel ideas in $\texttt{LPI}$ research and enhancing the utility of LLMs in scientific exploration. Overall, our work strives to forge an innovative synergy between AI and $\texttt{ICF}$ for advancing fusion energy.
- Abstract(参考訳): 制御された核融合エネルギーは、人類の文明の発展の鍵であると考えられている。
本稿では,従来の貯水池の計算パラダイムとLarge Language Models(LLM)の新たな統合である$\textbf{LPI-LLM}$,レーザープラズマ不安定性(\texttt{LPI}$),慣性閉じ込め核融合(\texttt{ICF}$)を紹介する。
まず、$\textit{LLM-anchored Reservoir}$, augmented with a $\textit{Fusion-specific Prompt}$, possible accurate forecasting of $\texttt{LPI}$- generated-hot electron dynamics during implosion。
次に、時空間的にドライバーレーザー強度を時空間的に記述するために、$\textit{Signal-Digesting Channels}$を開発し、$\textt{ICF}$入力のユニークな特性をキャプチャする。
最後に、予測の信頼性レベルを定量化するために$\textit{Confidence Scanner}$を設計します。
CAE 1.90, 0.14 $\textt{top-1}$ MAE, 0.11 $\textt{top-5}$ MAE in predicting Hard X-ray ($\texttt{HXR}$) energies in $\texttt{ICF}$ implosions。
さらに、物理実験に基づく最初の$\texttt{LPI}$ベンチマークである$\textbf{LPI4AI}$を提示し、科学探査におけるLLMの研究と活用の促進を目的とした。
全体として、我々の研究は、融合エネルギーの進歩のためにAIと$\texttt{ICF}$の間の革新的なシナジーを築こうとしている。
関連論文リスト
- Probabilistically Tightened Linear Relaxation-based Perturbation Analysis for Neural Network Verification [83.25968588249776]
本稿では,LiRPAに基づく手法とサンプリングに基づく手法を組み合わせることで,厳密な中間到達性集合を計算できる新しいフレームワークを提案する。
無視可能な計算オーバーヘッドでは、$textttPT-LiRPA$は推定された到達可能な集合を利用し、ニューラルネットワークの出力の上下線形境界を著しく締め付ける。
論文 参考訳(メタデータ) (2025-07-07T18:45:53Z) - FLARE: Robot Learning with Implicit World Modeling [87.81846091038676]
$textbfFLARE$は、予測潜在世界モデリングをロボットポリシー学習に統合する。
$textbfFLARE$は最先端のパフォーマンスを実現し、これまでのポリシー学習のベースラインを最大26%上回っている。
この結果は、暗黙の世界モデリングと高周波ロボット制御を組み合わせた汎用的でスケーラブルなアプローチとして$textbfFLARE$を確立した。
論文 参考訳(メタデータ) (2025-05-21T15:33:27Z) - InfiGFusion: Graph-on-Logits Distillation via Efficient Gromov-Wasserstein for Model Fusion [36.27704594180795]
InfiGFusionは、新しいtextitGraph-on-Logits Distillation (GLD)損失を持つ構造認識融合フレームワークである。
GLDは核融合品質と安定性を継続的に改善することを示す。
複雑な推論タスクでは、多段階算術において+35.6、SFT上の因果判定において+37.06が改良された。
論文 参考訳(メタデータ) (2025-05-20T03:55:35Z) - $\text{M}^{\text{3}}$: A Modular World Model over Streams of Tokens [51.65485693709418]
トークン化を個別に最適化しながら、トークンストリームを動的にモデリングする、有望なモジュラーフレームワークとして、トークンベースのワールドモデルが登場した。
本稿では、このフレームワークを拡張した、$textbfm$odular $textbfw$orld $textbfm$odelを紹介します。
$textMtext3$は、エージェントのパフォーマンスを向上させるために、既存の文献からいくつかの改善を実現している。
論文 参考訳(メタデータ) (2025-02-17T08:06:10Z) - $H^3$Fusion: Helpful, Harmless, Honest Fusion of Aligned LLMs [7.498844064516196]
命令ベースデータセットを用いた事前学習LLMのアライメントは、人間の好みを反映した微調整モデルを作成する上で重要である。
本稿では,3つの特徴を持つアライメント融合法(H3$Fusion)を考案した。
個々のモデルを11.37%$で上回り、最先端のLLMアンサンブルのアプローチに比べて13.77%$で強い堅牢性を提供する。
論文 参考訳(メタデータ) (2024-11-26T17:42:38Z) - LEVIS: Large Exact Verifiable Input Spaces for Neural Networks [8.673606921201442]
ニューラルネットワークの堅牢性は、安全クリティカルなアプリケーションにおいて最重要である。
我々は、$textttLEVIS$-$beta$を含む新しいフレームワーク、$textttLEVIS$を紹介します。
我々は、$textttLEVIS$-$alpha$と$textttLEVIS$-$beta$で得られた検証可能な球の性質を理論的に解析する。
論文 参考訳(メタデータ) (2024-08-16T16:15:57Z) - Exploiting Pre-trained Models for Drug Target Affinity Prediction with Nearest Neighbors [58.661454334877256]
薬物-標的結合親和性(DTA)予測は、薬物発見に不可欠である。
DTA予測へのディープラーニング手法の適用にもかかわらず、達成された精度は依然として準最適である。
事前学習したDTA予測モデルに適用した非表現埋め込みに基づく検索手法である$k$NN-DTAを提案する。
論文 参考訳(メタデータ) (2024-07-21T15:49:05Z) - Evaluating $n$-Gram Novelty of Language Models Using Rusty-DAWG [57.14250086701313]
本研究では,現代のLMがトレーニングデータから$n$-gramを生成できる範囲について検討する。
我々は,ゲノムデータのインデックス化にインスパイアされた新しい検索ツールであるRusty-DAWGを開発した。
論文 参考訳(メタデータ) (2024-06-18T21:31:19Z) - Linear Contextual Bandits with Hybrid Payoff: Revisited [0.8287206589886881]
ハイブリッド報酬設定における線形文脈問題について検討する。
この設定では、各アームの報酬モデルには、すべてのアームの報酬モデル間で共有されるパラメータに加えて、アーム固有のパラメータが含まれる。
論文 参考訳(メタデータ) (2024-06-14T15:41:21Z) - Creating an AI Observer: Generative Semantic Workspaces [4.031100721019478]
我々は、$textbf[G]$enerative $textbf[S]$emantic $textbf[W]$orkspace (GSW)を紹介します。
GSWは、伝統的に定義されたレキシコンラベルのセットとは対照的に、生成的なスタイルのセマンティックフレームワークを作成する。
論文 参考訳(メタデータ) (2024-06-07T00:09:13Z) - Transfer Q Star: Principled Decoding for LLM Alignment [105.89114186982972]
Transfer $Q*$は、ベースラインモデルを通してターゲット報酬$r$の最適値関数を推定する。
提案手法は, 従来のSoTA法で観測された準最適差を著しく低減する。
論文 参考訳(メタデータ) (2024-05-30T21:36:12Z) - RALL-E: Robust Codec Language Modeling with Chain-of-Thought Prompting for Text-to-Speech Synthesis [84.57932472551889]
RALL-Eは、音声合成のための堅牢な言語モデリング手法である。
RALL-Eは、ゼロショットTSのWERを、それぞれ5.6%$(リランクなし)から2.5%$と1.0%$に改善した。
論文 参考訳(メタデータ) (2024-04-04T05:15:07Z) - Mechanics of Next Token Prediction with Self-Attention [41.82477691012942]
トランスフォーマーベースの言語モデルは、入力シーケンスが与えられた次のトークンを予測するために、大きなデータセットでトレーニングされる。
勾配降下による自己注意の訓練は,次のトークンを2つの異なるステップで生成するオートマトンを学習することを示す。
これらの発見が、どのように自己認識がシーケンシャルなデータをどのように処理し、より複雑なアーキテクチャをデミステライズする道を開くか、光を当てることを願っています。
論文 参考訳(メタデータ) (2024-03-12T21:15:38Z) - Infini-gram: Scaling Unbounded n-gram Language Models to a Trillion Tokens [138.36729703589512]
神経大言語モデル(LLM)の時代には,$n$-gramの言語モデルがいまだに関係していることを示す。
これは、2つの側面で$n$-gramのLMを近代化することで実現された。まず、ニューラルネットワークLLMと同じデータスケールでトレーニングする -- 5兆トークン。
次に、既存の$n$-gram LMは、そのパフォーマンスを妨げる小さな$n$を使用します。
論文 参考訳(メタデータ) (2024-01-30T19:03:49Z) - Accelerating superconductor discovery through tempered deep learning of
the electron-phonon spectral function [0.0]
深層学習モデルを用いて電子フォノンスペクトル関数, $alpha2F(omega)$を予測する。
次に、サイトが提案するフォノン密度状態のドメイン知識を組み込んで、モデルのノード属性に帰納バイアスを課し、予測を強化する。
この方法の革新は、MAEを0.18、29K、28Kに減少させ、それぞれ2.1KのMAEを$T_c$とする。
論文 参考訳(メタデータ) (2024-01-29T22:44:28Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Reward-Mixing MDPs with a Few Latent Contexts are Learnable [75.17357040707347]
報酬混合マルコフ決定過程(RMMDP)におけるエピソード強化学習の検討
我々のゴールは、そのようなモデルにおける時間段階の累積報酬をほぼ最大化する、ほぼ最適に近いポリシーを学ぶことである。
論文 参考訳(メタデータ) (2022-10-05T22:52:00Z) - Minimax-Optimal Multi-Agent RL in Zero-Sum Markov Games With a
Generative Model [50.38446482252857]
2人プレイのゼロサムマルコフゲームは多エージェント強化学習においておそらく最も基本的な設定である。
我々は,$$ widetildeObiggを用いて,$varepsilon$-approximate Markov NEポリシーを学習する学習アルゴリズムを開発した。
我々は、分散型量の役割を明確にするFTRLに対する洗練された後悔境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T17:24:55Z) - Interpretable AI forecasting for numerical relativity waveforms of
quasi-circular, spinning, non-precessing binary black hole mergers [1.4438155481047366]
本稿では, 数値相対性理論の遅延的, 合併, リングダウンを学習し, 予測できるディープラーニング人工知能モデルを提案する。
私たちはArgonne Leadership Computing FacilityのThetaスーパーコンピュータを使って、150万の波形のトレーニングセットを使用してAIモデルをトレーニングしました。
その結果,人工知能は数値相対性理論波形の動的進化を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2021-10-13T18:14:52Z) - Mixture weights optimisation for Alpha-Divergence Variational Inference [0.0]
本稿では,変分推論のための$alpha$-divergence最小化手法について述べる。
すべての$alpha neq 1$に対して定義されるパワードネッセントはそのようなアルゴリズムである。
一階近似により、新しいアルゴリズムであるRenyi Descentを導入することができる。
論文 参考訳(メタデータ) (2021-06-09T14:47:05Z) - ExpFinder: An Ensemble Expert Finding Model Integrating $N$-gram Vector
Space Model and $\mu$CO-HITS [0.3560086794419991]
TextitExpFinder$は、専門家を見つけるための新しいアンサンブルモデルです。
新規な$N$-gramベクトル空間モデル($n$VSM)とグラフベースのモデル($textit$mu$CO-HITS$)を統合する。
論文 参考訳(メタデータ) (2021-01-18T00:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。