論文の概要: ML-Based Automata Simplification for Symbolic Accelerators
- arxiv url: http://arxiv.org/abs/2507.08751v1
- Date: Fri, 11 Jul 2025 17:02:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.439723
- Title: ML-Based Automata Simplification for Symbolic Accelerators
- Title(参考訳): シンボリック加速器のためのMLに基づくオートマタの簡易化
- Authors: Tiffany Yu, Rye Stahle-Smith, Darssan Eswaramoorthi, Rasha Karakchi,
- Abstract要約: シンボリックアクセラレータは、ゲノミクス、NLP、サイバーセキュリティといった分野のデータ処理にますます利用されている。
本稿では,FPGA ベースの NAPOLY+ などのオーバーレイ上にデプロイされた,機械学習ベースのグラフ単純化フレームワークである AutoSlim を紹介する。
AutoSlimはFPGA LUTの最大40%削減とトランジションの30%以上を達成し、グラフへのスケーリングは既存のベンチマークよりも桁違いに大きい。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbolic accelerators are increasingly used for symbolic data processing in domains such as genomics, NLP, and cybersecurity. However, these accelerators face scalability issues due to excessive memory use and routing complexity, especially when targeting a large set. We present AutoSlim, a machine learning-based graph simplification framework designed to reduce the complexity of symbolic accelerators built on Non-deterministic Finite Automata (NFA) deployed on FPGA-based overlays such as NAPOLY+. AutoSlim uses Random Forest classification to prune low-impact transitions based on edge scores and structural features, significantly reducing automata graph density while preserving semantic correctness. Unlike prior tools, AutoSlim targets automated score-aware simplification with weighted transitions, enabling efficient ranking-based sequence analysis. We evaluated data sets (1K to 64K nodes) in NAPOLY+ and conducted performance measurements including latency, throughput, and resource usage. AutoSlim achieves up to 40 percent reduction in FPGA LUTs and over 30 percent pruning in transitions, while scaling to graphs an order of magnitude larger than existing benchmarks. Our results also demonstrate how hardware interconnection (fanout) heavily influences hardware cost and that AutoSlim's pruning mitigates resource blowup.
- Abstract(参考訳): シンボリックアクセラレータは、ゲノミクス、NLP、サイバーセキュリティといった領域におけるシンボリックなデータ処理にますます利用されている。
しかし、これらのアクセラレータは、特に大規模なセットをターゲットとする場合、過剰なメモリ使用とルーティングの複雑さのためにスケーラビリティの問題に直面している。
我々は,非決定論的有限オートマタ (NFA) 上に構築された記号的加速器をNAPOLY+のようなFPGAベースのオーバーレイ上に配置した,機械学習に基づくグラフ単純化フレームワークであるAutoSlimを提案する。
AutoSlimはランダムフォレスト分類を用いて、エッジスコアと構造的特徴に基づいて低インパクト遷移を誘発し、意味的正しさを維持しながらオートマチックグラフ密度を著しく低減する。
従来のツールとは異なり、AutoSlimは重み付けされた遷移による自動スコア認識の単純化を目標としており、効率的なランキングベースのシーケンス分析を可能にしている。
NAPOLY+のデータセット(1Kから64Kノード)を評価し,レイテンシ,スループット,リソース使用量などのパフォーマンス測定を行った。
AutoSlimはFPGA LUTの最大40%削減とトランジションの30%以上を達成し、グラフへのスケーリングは既存のベンチマークよりも桁違いに大きい。
我々の結果は、ハードウェアの相互接続(ファンアウト)がハードウェアコストに大きく影響し、AutoSlimのプルーニングがリソースの爆発を緩和することを示す。
関連論文リスト
- Side-Channel Extraction of Dataflow AI Accelerator Hardware Parameters [2.5118823309854323]
本稿では,FINNフレームワークで生成されたデータフローアクセラレータのハードウェア構成を復元する手法を提案する。
ハードウェアパラメータの回復に337msしか必要とせず,95%以上,421ms以上の精度でパラメータの完全回復を行う。
提案手法は既存の手法よりも現実的な攻撃シナリオを提供し, tsfreshに基づくSoA攻撃と比較して, 940倍, 110倍の時間を要する。
論文 参考訳(メタデータ) (2025-06-18T13:06:09Z) - Fast Graph Sharpness-Aware Minimization for Enhancing and Accelerating Few-Shot Node Classification [53.727688136434345]
グラフニューラルネットワーク(GNN)はノード分類において優れた性能を示している。
高速グラフシャープネス認識最小化(FGSAM)を提案する。
提案アルゴリズムは,FSNCタスクにおいて,計算コストの低い標準SAMよりも優れる。
論文 参考訳(メタデータ) (2024-10-22T09:33:29Z) - Embedded Graph Convolutional Networks for Real-Time Event Data Processing on SoC FPGAs [0.815557531820863]
我々は、PointNetConv用に最適化されたハードウェアを意識した一連の最適化を設計したEFGCN(Event-based FPGA-accelerated Graph Convolutional Network)を紹介する。
提案手法は,AEGNN (Asynchronous Event-based GNN) と比較して,モデルサイズを最大100倍に削減する。
提案手法は,高度にスケーラブルでカスタマイズ可能なリソース効率を維持しつつ,複数のイベントベース分類ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-06-11T14:47:36Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Sparse Periodic Systolic Dataflow for Lowering Latency and Power
Dissipation of Convolutional Neural Network Accelerators [3.043665249713003]
本稿では,SPS(Sparse periodic systolic)データフローについて紹介する。
PPSの規則性を活用することで、スパシティ対応コンパイラは重みを最適に並べ替え、ハードウェアの単純なインデックス化ユニットを使用して重みとアクティベーションの一致を生成する。
論文 参考訳(メタデータ) (2022-06-30T19:16:46Z) - Real-time semantic segmentation on FPGAs for autonomous vehicles with
hls4ml [6.223322030008291]
フィールドプログラマブルゲートアレイは、自律運転に関連するリアルタイムセマンティックセグメンテーションタスクのハードウェアアクセラレータとして機能することを示す。
ENet畳み込みニューラルネットワークアーキテクチャの圧縮バージョンを考慮すると、1イメージあたり4.9ミリ秒のレイテンシで完全にオンチップのデプロイメントを実演する。
本稿では,アグレッシブフィルタの削減と異種量子化学習,畳み込み層の実装により,電力消費と資源利用を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2022-05-16T13:55:16Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and
Robust AutoDL [53.40030379661183]
Auto-PyTorchは、完全に自動化されたディープラーニング(AutoDL)を実現するフレームワーク
ディープニューラルネットワーク(DNN)のウォームスタートとアンサンブルのためのマルチフィデリティ最適化とポートフォリオ構築を組み合わせる。
Auto-PyTorchは、いくつかの最先端の競合製品よりもパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2020-06-24T15:15:17Z) - DHP: Differentiable Meta Pruning via HyperNetworks [158.69345612783198]
本稿では,ネットワークの自動プルーニングのためのハイパーネットによる識別可能なプルーニング手法を提案する。
遅延ベクトルは、バックボーンネットワーク内の畳み込み層の出力チャネルを制御し、レイヤのプルーニングのハンドルとして機能する。
画像分類、単一画像超解像、復調のための様々なネットワークで実験が行われた。
論文 参考訳(メタデータ) (2020-03-30T17:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。