論文の概要: TokaMind: A Multi-Modal Transformer Foundation Model for Tokamak Plasma Dynamics
- arxiv url: http://arxiv.org/abs/2602.15084v1
- Date: Mon, 16 Feb 2026 12:26:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.862518
- Title: TokaMind: A Multi-Modal Transformer Foundation Model for Tokamak Plasma Dynamics
- Title(参考訳): TokaMind:トカマクプラズマダイナミクスのためのマルチモードトランスフォーマー基礎モデル
- Authors: Tobia Boschi, Andrea Loreti, Nicola C. Amorisco, Rodrigo H. Ordonez-Hurtado, Cécile Rousseau, George K. Holt, Eszter Székely, Alexander Whittle, Samuel Jackson, Adriano Agnello, Stanislas Pamela, Alessandra Pascale, Robert Akers, Juan Bernabe Moreno, Vassil Alexandrov, Mykhaylo Zayats,
- Abstract要約: TokaMindは、核融合プラズマモデリングのためのオープンソースの基礎モデルフレームワークである。
公開されているMASTデータセットから、異種トカマク診断をトレーニングする。
我々は最近発表されたMASTベンチマークのTokaMarkでTokaMindを評価した。
- 参考スコア(独自算出の注目度): 56.073642366268764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present TokaMind, an open-source foundation model framework for fusion plasma modeling, based on a Multi-Modal Transformer (MMT) and trained on heterogeneous tokamak diagnostics from the publicly available MAST dataset. TokaMind supports multiple data modalities (time-series, 2D profiles, and videos) with different sampling rates, robust missing-signal handling, and efficient task adaptation via selectively loading and freezing four model components. To represent multi-modal signals, we use a training-free Discrete Cosine Transform embedding (DCT3D) and provide a clean interface for alternative embeddings (e.g., Variational Autoencoders - VAEs). We evaluate TokaMind on the recently introduced MAST benchmark TokaMark, comparing training and embedding strategies. Our results show that fine-tuned TokaMind outperforms the benchmark baseline on all but one task, and that, for several tasks, lightweight fine-tuning yields better performance than training the same architecture from scratch under a matched epoch budget. These findings highlight the benefits of multi-modal pretraining for tokamak plasma dynamics and provide a practical, extensible foundation for future fusion modeling tasks. Training code and model weights will be made publicly available.
- Abstract(参考訳): 本稿では,Multi-Modal Transformer (MMT) に基づく核融合プラズマモデリングのためのオープンソース基盤モデルフレームワークであるTokaMindについて述べる。
TokaMindは複数のデータモダリティ(時系列、2Dプロファイル、ビデオ)をサポートし、4つのモデルコンポーネントを選択的にロードおよび凍結することで、サンプリングレートの異なる、ロバストな符号処理、効率的なタスク適応をサポートする。
マルチモーダル信号を表すために,DCT3D (Drete Cosine Transform Embedding) と代替埋め込み(例えば,変分オートエンコーダ - VAE)のためのクリーンインターフェースを提供する。
我々は最近発表されたMASTベンチマークのTokaMarkでTokaMindを評価し、トレーニングと埋め込み戦略を比較した。
この結果から,微調整のTokaMindは1つのタスクを除いてベンチマークベースラインよりも優れており,いくつかのタスクでは,整合した予算の下で同じアーキテクチャをゼロからトレーニングするよりも,軽量な微調整の方が優れた性能が得られることがわかった。
これらの知見はトカマクプラズマ力学のマルチモーダルプレトレーニングの利点を強調し、将来の融合モデリングタスクのための実用的で拡張可能な基盤を提供する。
トレーニングコードとモデルウェイトが公開されます。
関連論文リスト
- MAFM^3: Modular Adaptation of Foundation Models for Multi-Modal Medical AI [3.1920084309415007]
我々は,単一の基礎モデルを多様な領域,タスク,モダリティに拡張可能なフレームワークMAFM3を提案する。
新しいタスクやモダリティを個別に扱う従来の適応手法とは異なり、MAFM3は効率的なマルチタスクとマルチモーダル適応のための統一された拡張可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-11-14T12:10:59Z) - TSGym: Design Choices for Deep Multivariate Time-Series Forecasting [38.12202305030755]
この作業は、深いMTSFメソッドをそのコアできめ細かいコンポーネントに分解することでギャップを埋める。
MTSFタスクのためのTSGymと呼ばれる新しい自動化ソリューションを提案する。
大規模な実験により、TSGymは既存のMTSF法やAutoML法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-09-21T12:49:31Z) - Sample-efficient Integration of New Modalities into Large Language Models [48.81776019848246]
マルチモーダル基礎モデルはいくつかのモダリティを処理できる。
本稿では,大規模言語モデルへのサンプル効率改善手法を提案する。
SEMIは、新しいモダリティを数秒で統合することで、サンプル効率を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2025-09-04T18:41:59Z) - OptMerge: Unifying Multimodal LLM Capabilities and Modalities via Model Merging [124.91183814854126]
モデルマージは、複数のエキスパートモデルをひとつのモデルに組み合わせようとしている。
本稿ではMLLMのトレーニングと評価のタスクを明確に分割したモデルマージ研究のベンチマークを紹介する。
モデルマージは、トレーニングデータを必要とせずに改善されたMLLMを構築するための有望な方法であることがわかった。
論文 参考訳(メタデータ) (2025-05-26T12:23:14Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - FissionFusion: Fast Geometric Generation and Hierarchical Souping for Medical Image Analysis [0.7751705157998379]
十分に注釈付けされた医療データセットの不足は、ImageNetのような広範なデータセットやCLIPのような事前訓練されたモデルからの移行学習を活用する必要がある。
モデルスープは、In-Domain(ID)タスクのパフォーマンスを改善し、out-of-Distribution(OOD)データセットに対する堅牢性を高めることを目的とした、複数の微調整されたモデルの平均である。
本稿では,様々なレベルのモデルの局所的および大域的集約を伴う階層的統合手法を提案する。
論文 参考訳(メタデータ) (2024-03-20T06:48:48Z) - MatFormer: Nested Transformer for Elastic Inference [91.45687988953435]
MatFormerは、多様なデプロイメント制約にまたがる弾性推論を提供するように設計された、新しいTransformerアーキテクチャである。
MatFormerは、標準的なTransformerモデルにネストフィードフォワードネットワーク(FFN)ブロック構造を組み込むことで、これを実現している。
8億5000万デコーダのみのMatFormer言語モデル(MatLM)により,5億2200万から8億5千万のパラメータにまたがる複数の小さなモデルを抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-11T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。