論文の概要: An Ultra Fast Low Power Convolutional Neural Network Image Sensor with
Pixel-level Computing
- arxiv url: http://arxiv.org/abs/2101.03308v1
- Date: Sat, 9 Jan 2021 07:10:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 07:20:44.182248
- Title: An Ultra Fast Low Power Convolutional Neural Network Image Sensor with
Pixel-level Computing
- Title(参考訳): 画素レベル演算を用いた超高速低電力畳み込みニューラルネットワークイメージセンサ
- Authors: Ruibing Song, Kejie Huang, Zongsheng Wang, Haibin Shen
- Abstract要約: 本稿では,カラム読み出し回路前の畳み込み動作を可能にし,画像読み出し速度を大幅に向上できるpip( processing-in-pixel) cmosセンサアーキテクチャを提案する。
言い換えれば、計算効率は4.75 TOPS/wであり、最先端の約3.6倍である。
- 参考スコア(独自算出の注目度): 3.41234610095684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The separation of the data capture and analysis in modern vision systems has
led to a massive amount of data transfer between the end devices and cloud
computers, resulting in long latency, slow response, and high power
consumption. Efficient hardware architectures are under focused development to
enable Artificial Intelligence (AI) at the resource-limited end sensing
devices. This paper proposes a Processing-In-Pixel (PIP) CMOS sensor
architecture, which allows convolution operation before the column readout
circuit to significantly improve the image reading speed with much lower power
consumption. The simulation results show that the proposed architecture enables
convolution operation (kernel size=3*3, stride=2, input channel=3, output
channel=64) in a 1080P image sensor array with only 22.62 mW power consumption.
In other words, the computational efficiency is 4.75 TOPS/w, which is about 3.6
times as higher as the state-of-the-art.
- Abstract(参考訳): 現代のビジョンシステムにおけるデータキャプチャーと分析の分離は、エンドデバイスとクラウドコンピュータの間で大量のデータ転送をもたらし、長いレイテンシ、遅い応答、高い消費電力をもたらす。
効率的なハードウェアアーキテクチャは、リソース制限されたエンドセンシングデバイスで人工知能(AI)を実現するために開発が進められている。
本稿では,カラム読み出し回路前の畳み込み動作が可能なpip( processing-in-pixel) cmosセンサアーキテクチャを提案する。
シミュレーションの結果,提案アーキテクチャは1080Pイメージセンサアレイにおける畳み込み操作(カーネルサイズ=3*3,ストライド=2,入力チャネル=3,出力チャネル=64)が可能であり,消費電力は22.62mWであることがわかった。
言い換えれば、計算効率は4.75 TOPS/wであり、最先端の約3.6倍である。
関連論文リスト
- Data-Driven Pixel Control: Challenges and Prospects [13.158333009169418]
本稿では,画素レベルでのダイナミックセンシングと映像レベルでのコンピュータビジョン分析を組み合わせたデータ駆動システムについて検討する。
本システムでは, 帯域幅を10倍に減らし, 省エネ製品(EDP)の15~30倍改善を実現している。
論文 参考訳(メタデータ) (2024-08-08T21:49:19Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - PixelRNN: In-pixel Recurrent Neural Networks for End-to-end-optimized
Perception with Neural Sensors [42.18718773182277]
従来の画像センサは高速フレームレートで高解像度画像をデジタル化し、さらなる処理のためにセンサーから送信する必要がある大量のデータを生成する。
我々は、純粋なバイナリ演算を用いて、センサ上の時間的特徴を符号化する効率的なリカレントニューラルネットワークアーキテクチャ、PixelRNNの処理を開発する。
PixelRNNは、従来のシステムと比較して、センサから送信されるデータ量を64倍に削減し、手ジェスチャー認識や唇読解タスクの競合精度を提供する。
論文 参考訳(メタデータ) (2023-04-11T18:16:47Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - AnalogNet: Convolutional Neural Network Inference on Analog Focal Plane
Sensor Processors [0.0]
アナログ平面センサプロセッサ(FPSP)と呼ばれるユニークな種類のデバイスの性能を利用した高速でエネルギー効率の良い畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
センサアレイが収集したデータを別のプロセッサに送信して処理する従来のビジョンシステムとは異なり、FPSPは撮像装置自体でデータを処理できる。
提案するアーキテクチャはAnalogNetと呼ばれ,MNISTの手書き文字認識タスクにおいて,1フレームあたり0.7mJの速度で96.9%の精度で動作可能である。
論文 参考訳(メタデータ) (2020-06-02T16:44:43Z) - Fully Embedding Fast Convolutional Networks on Pixel Processor Arrays [16.531637803429277]
本稿では,PPA(Pixel processor array)視覚センサのための新しいCNN推論手法を提案する。
提案手法は, 畳み込み層, 最大プーリング, ReLu, およびPPAセンサ上に完全に接続された最終層を実現する。
これは、外部処理を必要としないPPA視覚センサデバイスのプロセッサアレイで完全に行われたCNN推論を示す最初の研究である。
論文 参考訳(メタデータ) (2020-04-27T01:00:35Z) - Near-chip Dynamic Vision Filtering for Low-Bandwidth Pedestrian
Detection [99.94079901071163]
本稿では、ダイナミックビジョンセンサ(DVS)を用いた歩行者検出のための新しいエンドツーエンドシステムを提案する。
我々は、複数のセンサがローカル処理ユニットにデータを送信し、検出アルゴリズムを実行するアプリケーションをターゲットにしている。
我々の検出器は450ミリ秒毎に検出を行うことができ、総合的なテストF1スコアは83%である。
論文 参考訳(メタデータ) (2020-04-03T17:36:26Z) - A Machine Learning Imaging Core using Separable FIR-IIR Filters [2.099922236065961]
完全にトレーニング可能な固定トポロジーニューラルネットワークを使用して、さまざまな画像処理タスクを実行できるモデルを構築します。
提案した機械学習イメージングコアはMagICと呼ばれ、シリコン面積は3mm2である。
それぞれのMagICコアは56mW(215mW)を500MHzで消費し、エネルギー効率は23TOPS/W/mm2である。
論文 参考訳(メタデータ) (2020-01-02T21:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。