論文の概要: Optimization of DNN-based HSI Segmentation FPGA-based SoC for ADS: A Practical Approach
- arxiv url: http://arxiv.org/abs/2507.16556v1
- Date: Tue, 22 Jul 2025 13:09:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.121328
- Title: Optimization of DNN-based HSI Segmentation FPGA-based SoC for ADS: A Practical Approach
- Title(参考訳): DNN-based HSI Segmentation FPGA-based SoC for ADS:実践的アプローチ
- Authors: Jon Gutiérrez-Zaballa, Koldo Basterretxea, Javier Echanobe,
- Abstract要約: 本研究では,FPGA ベースの SOC 上にデプロイされた DNN ベースの HSI セグメンテーションプロセッサの実用的共同設計のための最適化手法を提案する。
応用圧縮技術により設計されたDNNの複雑さは、元の操作の24.34%、元のパラメータの1.02%に大幅に減少し、セグメンテーション精度を著しく低下させることなく、推論タスクの2.86倍のスピードアップを達成した。
- 参考スコア(独自算出の注目度): 1.474723404975345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of HSI for autonomous navigation is a promising research field aimed at improving the accuracy and robustness of detection, tracking, and scene understanding systems based on vision sensors. Combining advanced computer algorithms, such as DNNs, with small-size snapshot HSI cameras enhances the reliability of these systems. HSI overcomes intrinsic limitations of greyscale and RGB imaging in depicting physical properties of targets, particularly regarding spectral reflectance and metamerism. Despite promising results in HSI-based vision developments, safety-critical systems like ADS demand strict constraints on latency, resource consumption, and security, motivating the shift of ML workloads to edge platforms. This involves a thorough software/hardware co-design scheme to distribute and optimize the tasks efficiently among the limited resources of computing platforms. With respect to inference, the over-parameterized nature of DNNs poses significant computational challenges for real-time on-the-edge deployment. In addition, the intensive data preprocessing required by HSI, which is frequently overlooked, must be carefully managed in terms of memory arrangement and inter-task communication to enable an efficient integrated pipeline design on a SoC. This work presents a set of optimization techniques for the practical co-design of a DNN-based HSI segmentation processor deployed on a FPGA-based SoC targeted at ADS, including key optimizations such as functional software/hardware task distribution, hardware-aware preprocessing, ML model compression, and a complete pipelined deployment. Applied compression techniques significantly reduce the complexity of the designed DNN to 24.34% of the original operations and to 1.02% of the original number of parameters, achieving a 2.86x speed-up in the inference task without noticeable degradation of the segmentation accuracy.
- Abstract(参考訳): 自律ナビゲーションにおけるHSIの利用は、視覚センサに基づく検出、追跡、シーン理解システムの精度と堅牢性の向上を目的とした、有望な研究分野である。
DNNのような先進的なコンピュータアルゴリズムと小型のスナップショットHSIカメラを組み合わせることで、これらのシステムの信頼性が向上する。
HSIは、特にスペクトル反射とメタメリズムに関して、ターゲットの物理的特性を描写する際に、グレイスケールとRGBイメージングの固有の制限を克服する。
HSIベースのビジョン開発における有望な結果にもかかわらず、ADSのような安全クリティカルなシステムは、レイテンシ、リソース消費、セキュリティに厳しい制約を要求しており、MLワークロードのエッジプラットフォームへの移行を動機付けている。
これには、コンピュータプラットフォームの限られたリソース間で効率的にタスクを分散し、最適化するための、徹底したソフトウェア/ハードウェアの共同設計スキームが含まれる。
推論に関して、DNNの過度パラメータ化の性質は、リアルタイム・オン・ザ・エッジ・デプロイメントに重大な計算上の課題をもたらす。
さらに、しばしば見過ごされるHSIが必要とする集中的なデータ前処理は、SoC上で効率的な統合パイプライン設計を可能にするために、メモリアレンジメントとタスク間通信の観点から慎重に管理する必要がある。
本研究は,機能的ソフトウェア/ハードウェアタスク分散,ハードウェア対応前処理,MLモデル圧縮,完全なパイプライン配置などの重要な最適化を含む,ADSを対象としたFPGAベースのSoC上にデプロイされたDNNベースのHSIセグメンテーションプロセッサの実用的共同設計のための一連の最適化手法を提案する。
応用圧縮技術により、設計されたDNNの複雑さは、元の操作の24.34%、元のパラメータの1.02%に大幅に減少し、セグメンテーション精度を著しく低下させることなく、推論タスクの2.86倍のスピードアップを達成した。
関連論文リスト
- Intelligent4DSE: Optimizing High-Level Synthesis Design Space Exploration with Graph Neural Networks and Large Language Models [3.8429489584622156]
我々は,タスク適応型メッセージパッシングと大規模言語モデル拡張進化アルゴリズムをグラフニューラルネットワークに統合するフレームワークであるCoGNNs-LLMEAを提案する。
予測モデルとして、CoGNNはコンパイラフロントエンド処理後にソースコードから生成された中間表現を直接利用し、HLSツールを起動することなく結果の品質(QoR)の予測を可能にする。
CoGNNは、HLS後のQoR予測における最先端予測精度を実現し、平均予測誤差を2.8$times$と3.4$times$で削減する。
論文 参考訳(メタデータ) (2025-04-28T10:08:56Z) - MetaML-Pro: Cross-Stage Design Flow Automation for Efficient Deep Learning Acceleration [8.43012094714496]
本稿では、リソース制約のあるハードウェア上にディープニューラルネットワーク(DNN)をデプロイするための最適化戦略の体系化と自動化のための統一的なフレームワークを提案する。
提案手法は,2つの重要な問題に対処する: (i) カスタム最適化戦略のエンコードと (ii) クロスステージ最適化探索のエナリングである。
論文 参考訳(メタデータ) (2025-02-09T11:02:06Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Exploration of Activation Fault Reliability in Quantized Systolic
Array-Based DNN Accelerators [0.8796261172196743]
本稿では,量子化がモデル精度,アクティベーション障害の信頼性,ハードウェア効率に与える影響を総合的に評価するための包括的方法論を提案する。
さまざまな量子化対応技術、フォールトインジェクション、ハードウェア実装を適用可能な、完全に自動化されたフレームワークが導入された。
確立されたベンチマーク実験は、信頼性、ハードウェア性能、ネットワーク精度に対する分析フローと量子化の深い影響を実証している。
論文 参考訳(メタデータ) (2024-01-17T12:55:17Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Deep Learning-based Resource Allocation For Device-to-Device
Communication [66.74874646973593]
デバイス間通信(D2D)を用いたマルチチャネルセルシステムにおいて,リソース割り当ての最適化のためのフレームワークを提案する。
任意のチャネル条件に対する最適な資源配分戦略をディープニューラルネットワーク(DNN)モデルにより近似する深層学習(DL)フレームワークを提案する。
シミュレーションの結果,提案手法のリアルタイム性能を低速で実現できることが確認された。
論文 参考訳(メタデータ) (2020-11-25T14:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。