論文の概要: Red grape detection with accelerated artificial neural networks in the FPGA's programmable logic
- arxiv url: http://arxiv.org/abs/2507.02443v1
- Date: Thu, 03 Jul 2025 09:00:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.982285
- Title: Red grape detection with accelerated artificial neural networks in the FPGA's programmable logic
- Title(参考訳): FPGAのプログラム可能な論理系における加速人工ニューラルネットワークによる赤ブドウの検出
- Authors: Sandro Costa Magalhães, Marco Almeida, Filipe Neves dos Santos, António Paulo Moreira, Jorge Dias,
- Abstract要約: AMDは検出アルゴリズムをFPGAにデプロイするVitis-AIフレームワークを開発した。
このツールはFPGAのPLを完全に使用していない。
本研究では,FPGAを用いてANNを高速化し,アテンション機構に適合させることを実証する。
- 参考スコア(独自算出の注目度): 3.0091067013530894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots usually slow down for canning to detect objects while moving. Additionally, the robot's camera is configured with a low framerate to track the velocity of the detection algorithms. This would be constrained while executing tasks and exploring, making robots increase the task execution time. AMD has developed the Vitis-AI framework to deploy detection algorithms into FPGAs. However, this tool does not fully use the FPGAs' PL. In this work, we use the FINN architecture to deploy three ANNs, MobileNet v1 with 4-bit quantisation, CNV with 2-bit quantisation, and CNV with 1-bit quantisation (BNN), inside an FPGA's PL. The models were trained on the RG2C dataset. This is a self-acquired dataset released in open access. MobileNet v1 performed better, reaching a success rate of 98 % and an inference speed of 6611 FPS. In this work, we proved that we can use FPGAs to speed up ANNs and make them suitable for attention mechanisms.
- Abstract(参考訳): ロボットは通常、動きながら物体を検出するために速度を落とす。
さらに、検出アルゴリズムの速度を追跡するために、ロボットのカメラは低フレームレートで構成されている。
これは、タスクを実行し、探索しながら制限され、ロボットがタスクの実行時間を増加させる。
AMDは検出アルゴリズムをFPGAにデプロイするVitis-AIフレームワークを開発した。
しかし、このツールはFPGAのPLを完全に使用していない。
本研究では、FINNアーキテクチャを用いて3つのANNをデプロイし、MobileNet v1は4ビット量子化、CNVは2ビット量子化、CNVは1ビット量子化(BNN)をFPGAのPL内に配置する。
モデルはRG2Cデータセットでトレーニングされた。
これは、オープンアクセスでリリースされている自己取得データセットである。
MobileNet v1は98%の成功率、推論速度6611 FPSに向上した。
本研究では,FPGAを用いてANNを高速化し,アテンション機構に適合させることを実証した。
関連論文リスト
- Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Fast Algorithms for Spiking Neural Network Simulation with FPGAs [0.0]
我々は、ハイエンドフィールドプログラマブルゲートアレイ(FPGA)のためのPotjans-Diesmann大脳皮質微小回路のためのスパイキングニューラルネットワークシミュレータ(SNN)を作成する。
我々の最高のシミュレーターは、回路をリアルタイムよりも25%高速にシミュレートし、シナプスイベントあたり21nJ未満が必要であり、オンチップメモリによってボトルネックされる。
この結果は、単一のハードウェアアクセラレータ上で回路をシミュレートする最初のものである。
論文 参考訳(メタデータ) (2024-05-03T11:39:25Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Accelerated Charged Particle Tracking with Graph Neural Networks on
FPGAs [0.0]
グラフニューラルネットワークに基づく荷電粒子追跡のためのアルゴリズムのFPGA実装を開発し,研究する。
CPUベースの実行の大幅な高速化が可能であり、将来的にはそのようなアルゴリズムを効果的に利用できるようになる可能性がある。
論文 参考訳(メタデータ) (2020-11-30T18:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。