論文の概要: TrackCore-F: Deploying Transformer-Based Subatomic Particle Tracking on FPGAs
- arxiv url: http://arxiv.org/abs/2509.26335v1
- Date: Tue, 30 Sep 2025 14:44:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.58277
- Title: TrackCore-F: Deploying Transformer-Based Subatomic Particle Tracking on FPGAs
- Title(参考訳): TrackCore-F:FPGA上でトランスフォーマーベースのサブ原子粒子追跡をデプロイする
- Authors: Arjan Blankestijn, Uraz Odyurt, Amirreza Yousefzadeh,
- Abstract要約: 我々はモノリシックなトランスフォーマー合成のためのツールを開発することを目指しており、特に推論をターゲットにしている。
当社の主なユースケースは、TrackFormersプロジェクトから派生した、追跡のための2つの機械学習モデル設計です。
- 参考スコア(独自算出の注目度): 0.2851702684899107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Transformer Machine Learning (ML) architecture has been gaining considerable momentum in recent years. In particular, computational High-Energy Physics tasks such as jet tagging and particle track reconstruction (tracking), have either achieved proper solutions, or reached considerable milestones using Transformers. On the other hand, the use of specialised hardware accelerators, especially FPGAs, is an effective method to achieve online, or pseudo-online latencies. The development and integration of Transformer-based ML to FPGAs is still ongoing and the support from current tools is very limited to non-existent. Additionally, FPGA resources present a significant constraint. Considering the model size alone, while smaller models can be deployed directly, larger models are to be partitioned in a meaningful and ideally, automated way. We aim to develop methodologies and tools for monolithic, or partitioned Transformer synthesis, specifically targeting inference. Our primary use-case involves two machine learning model designs for tracking, derived from the TrackFormers project. We elaborate our development approach, present preliminary results, and provide comparisons.
- Abstract(参考訳): Transformer Machine Learning (ML) アーキテクチャは近年,かなりの勢いを増している。
特に、ジェットタグや粒子軌道再構成(追跡)などの計算高エネルギー物理タスクは、適切な解を達成するか、トランスフォーマーを用いてかなりのマイルストーンに達した。
一方、特別ハードウェアアクセラレーター(特にFPGA)の使用は、オンラインまたは擬似オンラインレイテンシを実現する効果的な方法である。
TransformerベースのMLのFPGAへの開発と統合はまだ進行中であり、現在のツールのサポートは存在しないものに限られている。
さらにFPGAリソースには大きな制約がある。
モデルのサイズだけを考えると、より小さなモデルは直接デプロイできるが、より大きなモデルは意味があり理想的には自動化された方法で分割されなければならない。
我々はモノリシックなトランスフォーマー合成のための方法論やツールの開発を目指しており、特に推論を対象としています。
当社の主なユースケースは、TrackFormersプロジェクトから派生した、追跡のための2つの機械学習モデル設計です。
開発アプローチを精査し、予備結果を示し、比較を行う。
関連論文リスト
- Quantized Visual Geometry Grounded Transformer [67.15451442018258]
本稿では,VGGTの最初の量子化フレームワーク,すなわちQuantVGGTを提案する。
球状前アダマール回転と局所流路平滑化を統合したDual-Smoothed Fine-Grained Quantizationを導入する。
また、重層統計量を用いて外周をフィルタするノイズフィルタディバースサンプリングを設計する。
論文 参考訳(メタデータ) (2025-09-25T15:17:11Z) - On-device AI: Quantization-aware Training of Transformers in Time-Series [0.0]
Transformerモデルは、これらのAIモデルの中で最も魅力的だ。
私の研究は、時系列予測タスクのためのTransformerモデルを最適化することに焦点を当てています。
最適化されたモデルは、組み込みフィールドプログラマブルゲートアレイ(FPGA)上にハードウェアアクセラレータとしてデプロイされる。
論文 参考訳(メタデータ) (2024-08-29T12:49:22Z) - Investigating Resource-efficient Neutron/Gamma Classification ML Models Targeting eFPGAs [0.0]
オープンソース組み込みFPGA(eFPGA)フレームワークは、ハードウェアに機械学習モデルを実装するための、代替的で柔軟な経路を提供する。
完全連結ニューラルネットワーク(fcNN)と強化決定木(BDT)モデルのeFPGA実装のパラメータ空間について検討する。
この研究結果は、テストチップの一部として統合されるeFPGAファブリックの仕様策定を支援するために使用される。
論文 参考訳(メタデータ) (2024-04-19T20:03:30Z) - Benchmarking and In-depth Performance Study of Large Language Models on
Habana Gaudi Processors [5.432613942292548]
トランスフォーマーモデルは、様々な機械学習タスクにおいて顕著な成功を収めてきたが、高い計算複雑性とリソース要求に悩まされている。
Habana GAUDIアーキテクチャのような専門的なAIハードウェアアクセラレータは、これらの問題に対処するための有望なソリューションを提供する。
本稿では,GAUDIプロセッサを用いてTransformerベースのモデルを高速化する未解決の可能性について検討し,そのプロセスにおける重要な課題に対処する。
論文 参考訳(メタデータ) (2023-09-29T04:49:35Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - FTRANS: Energy-Efficient Acceleration of Transformers using FPGA [11.032972017827248]
本稿では,変換器をベースとした大規模言語表現のための高速化フレームワークFtransを提案する。
本フレームワークは,NLPモデルのモデルサイズを最大16倍に削減する。
FPGA設計は、CPUと比較して27.07倍、81倍の性能向上とエネルギー効率の向上を実現し、GPUと比較して最大8.80倍のエネルギー効率向上を実現している。
論文 参考訳(メタデータ) (2020-07-16T18:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。