論文の概要: Low latency optical-based mode tracking with machine learning deployed on FPGAs on a tokamak
- arxiv url: http://arxiv.org/abs/2312.00128v3
- Date: Tue, 9 Jul 2024 16:20:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 00:21:19.266083
- Title: Low latency optical-based mode tracking with machine learning deployed on FPGAs on a tokamak
- Title(参考訳): トカマク上のFPGA上に機械学習を配置した低レイテンシ光ベースモードトラッキング
- Authors: Yumou Wei, Ryan F. Forelli, Chris Hansen, Jeffrey P. Levesque, Nhan Tran, Joshua C. Agar, Giuseppe Di Guglielmo, Michael E. Mauel, Gerald A. Navratil,
- Abstract要約: 本研究ではFPGAを用いた高速カメラデータ取得・処理システムについて述べる。
リアルタイムの機械学習ベースのトカマク診断と制御、および他の科学分野の潜在的な応用を可能にする。
- 参考スコア(独自算出の注目度): 0.8506991993461593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active feedback control in magnetic confinement fusion devices is desirable to mitigate plasma instabilities and enable robust operation. Optical high-speed cameras provide a powerful, non-invasive diagnostic and can be suitable for these applications. In this study, we process fast camera data, at rates exceeding 100kfps, on $\textit{in situ}$ Field Programmable Gate Array (FPGA) hardware to track magnetohydrodynamic (MHD) mode evolution and generate control signals in real-time. Our system utilizes a convolutional neural network (CNN) model which predicts the $n$=1 MHD mode amplitude and phase using camera images with better accuracy than other tested non-deep-learning-based methods. By implementing this model directly within the standard FPGA readout hardware of the high-speed camera diagnostic, our mode tracking system achieves a total trigger-to-output latency of 17.6$\mu$s and a throughput of up to 120kfps. This study at the High Beta Tokamak-Extended Pulse (HBT-EP) experiment demonstrates an FPGA-based high-speed camera data acquisition and processing system, enabling application in real-time machine-learning-based tokamak diagnostic and control as well as potential applications in other scientific domains.
- Abstract(参考訳): 磁気閉じ込め融合装置のアクティブフィードバック制御は、プラズマ不安定性を緩和し、ロバストな動作を可能にするのが望ましい。
光高速カメラは強力で非侵襲的な診断を提供し、これらの用途に適している。
本研究では,100kfpsを超える速度で高速カメラデータを$\textit{in situ}$ Field Programmable Gate Array (FPGA)ハードウェア上で処理し,磁気流体力学(MHD)モードの進化を追跡し,リアルタイムに制御信号を生成する。
提案システムは畳み込みニューラルネットワーク(CNN)モデルを用いて,n$=1 MHDモードの振幅と位相を予測する。
このモデルを高速カメラ診断の標準FPGA読み出しハードウェアに直接実装することにより、モードトラッキングシステムは17.6$\mu$sのトリガー・ツー・アウトの待ち時間と最大120kfpsのスループットを実現する。
The High Beta Tokamak-Extended Pulse (HBT-EP) experimentでは、FPGAベースの高速カメラデータ取得・処理システムを実証し、リアルタイム機械学習に基づくトカマクの診断・制御と、他の科学領域における潜在的な応用を可能にする。
関連論文リスト
- Low-latency machine learning FPGA accelerator for multi-qubit state discrimination [1.6773398825542363]
本研究では、ニューラルネットワーク(NN)をフィールドプログラマブルゲートアレイ(FPGA)に展開するための統合アプローチを利用する。
周波数多重読み出しのための完全連結ニューラルネットワークアクセラレータの設計と実装は実用的であることを示す。
ハードウェアアクセラレータは、RFSoC ZCU111FPGA上で、5つの超伝導量子ビットを50 ns未満で周波数多重読み出しを行う。
論文 参考訳(メタデータ) (2024-07-04T11:34:43Z) - FPGA Deployment of LFADS for Real-time Neuroscience Experiments [2.1110034280282153]
LFADS(Latent Factor Analysis via Dynamical Systems)は、1回の試験で同時に記録された高次元神経スパイデータから潜時ダイナミクスを推定するためのディープラーニング手法である。
本研究では,LFADSモデルをFPGA(Field Programmable Gate Arrays)に実装する。
我々の実装では、Xilinx U55Cで1回の試行でデータを処理するために41.97$mu$sの推論遅延を示す。
論文 参考訳(メタデータ) (2024-02-02T07:52:20Z) - DYNAP-SE2: a scalable multi-core dynamic neuromorphic asynchronous
spiking neural network processor [2.9175555050594975]
我々は、リアルタイムイベントベーススパイキングニューラルネットワーク(SNN)をプロトタイピングするための、脳にインスパイアされたプラットフォームを提案する。
提案システムは, 短期可塑性, NMDA ゲーティング, AMPA拡散, ホメオスタシス, スパイク周波数適応, コンダクタンス系デンドライトコンパートメント, スパイク伝達遅延などの動的および現実的なニューラル処理現象の直接エミュレーションを支援する。
異なる生物学的に可塑性のニューラルネットワークをエミュレートする柔軟性と、個体群と単一ニューロンの信号の両方をリアルタイムで監視する能力により、基礎研究とエッジコンピューティングの両方への応用のための複雑なニューラルネットワークモデルの開発と検証が可能になる。
論文 参考訳(メタデータ) (2023-10-01T03:48:16Z) - Theoretical framework for real time sub-micron depth monitoring using
quantum inline coherent imaging [55.2480439325792]
インラインコヒーレントイメージング(ICI)は、キーホール溶接、添加物製造、マイクロ加工など、様々なレーザプロセスのリアルタイム監視のための信頼性の高い手法である。
軸方向分解能は2m以上に限定されており、ICIはサブミクロンプロセスの監視には適さない。
量子光コヒーレンス・トモグラフィ(Q OCT)の進歩は、1m以上の奥行き分解能を達成してこの問題に対処する可能性がある。
論文 参考訳(メタデータ) (2023-09-17T17:05:21Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Single-Shot Optical Neural Network [55.41644538483948]
深層ニューラルネットワークに必要な計算資源を削減するために,「重定常」アナログ光学・電子ハードウェアが提案されている。
我々は、スケーラブルで1層当たり単発の重み付き光学プロセッサを提案する。
論文 参考訳(メタデータ) (2022-05-18T17:49:49Z) - Energy-Efficient Tree-Based EEG Artifact Detection [17.085570466000906]
てんかんモニタリングでは、脳波アーチファクトは振幅と周波数の両方で形態学的に類似しているため、発作と誤認されることが多い。
本研究では, 並列超低消費電力(PULP)組み込みプラットフォーム上で, 最小数のEEGチャネルに基づくアーティファクト検出アルゴリズムの実装について述べる。
論文 参考訳(メタデータ) (2022-04-19T12:57:26Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - 10-mega pixel snapshot compressive imaging with a hybrid coded aperture [48.95666098332693]
高解像度画像は私たちの日常生活で広く使われているが、高解像度モードで動作するカメラのフレームレートが低いため、高速ビデオ撮影は困難である。
既存の撮像システムの低スループット化への解決策として、スナップショットイメージング(SCI)が提案された。
論文 参考訳(メタデータ) (2021-06-30T01:09:24Z) - Diagnostic data integration using deep neural networks for real-time
plasma analysis [2.770437783544638]
核融合実験のための買収の連鎖を完全に更新する可能性を探る。
特に、ニューロン伝達関数の量子化を試みると、そのようなモデルが組み込まれたファームウェアを作成するように変更できることが示されている。
このファームウェアは、深部推論モデルを一連の単純な演算に近似し、FPGAで多用される単純な論理ユニットとよく適合する。
論文 参考訳(メタデータ) (2020-10-28T18:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。