論文の概要: A Machine Learning Imaging Core using Separable FIR-IIR Filters
- arxiv url: http://arxiv.org/abs/2001.00630v1
- Date: Thu, 2 Jan 2020 21:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 04:41:05.898757
- Title: A Machine Learning Imaging Core using Separable FIR-IIR Filters
- Title(参考訳): 分離可能なFIR-IIRフィルタを用いた機械学習イメージングコア
- Authors: Masayoshi Asama, Leo F. Isikdogan, Sushma Rao, Bhavin V. Nayak, Gilad
Michael
- Abstract要約: 完全にトレーニング可能な固定トポロジーニューラルネットワークを使用して、さまざまな画像処理タスクを実行できるモデルを構築します。
提案した機械学習イメージングコアはMagICと呼ばれ、シリコン面積は3mm2である。
それぞれのMagICコアは56mW(215mW)を500MHzで消費し、エネルギー効率は23TOPS/W/mm2である。
- 参考スコア(独自算出の注目度): 2.099922236065961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose fixed-function neural network hardware that is designed to perform
pixel-to-pixel image transformations in a highly efficient way. We use a fully
trainable, fixed-topology neural network to build a model that can perform a
wide variety of image processing tasks. Our model uses compressed skip lines
and hybrid FIR-IIR blocks to reduce the latency and hardware footprint. Our
proposed Machine Learning Imaging Core, dubbed MagIC, uses a silicon area of
~3mm^2 (in TSMC 16nm), which is orders of magnitude smaller than a comparable
pixel-wise dense prediction model. MagIC requires no DDR bandwidth, no SRAM,
and practically no external memory. Each MagIC core consumes 56mW (215 mW max
power) at 500MHz and achieves an energy-efficient throughput of 23TOPS/W/mm^2.
MagIC can be used as a multi-purpose image processing block in an imaging
pipeline, approximating compute-heavy image processing applications, such as
image deblurring, denoising, and colorization, within the power and silicon
area limits of mobile devices.
- Abstract(参考訳): 画素間画像変換を高効率で行うために設計された固定機能ニューラルネットワークハードウェアを提案する。
完全にトレーニング可能な固定トポロジーニューラルネットワークを使用して、さまざまな画像処理タスクを実行できるモデルを構築します。
我々のモデルは、圧縮スキップラインとハイブリッドFIR-IIRブロックを使用して、レイテンシとハードウェアフットプリントを削減する。
提案するMachine Learning Imaging CoreはMagICと呼ばれ,3mm^2(TSMC 16nm)のシリコン領域を用いる。
MagICはDDR帯域、SRAM、外部メモリを必要としない。
それぞれのMagICコアは56mW(215mW)を500MHzで消費し、エネルギー効率は23TOPS/W/mm^2である。
MagICは、画像パイプラインにおける多目的画像処理ブロックとして使用することができ、モバイルデバイスの電力とシリコン領域の限界内で、画像の劣化、デノナイズ、色化などの計算量の多い画像処理アプリケーションを近似することができる。
関連論文リスト
- Parameter-Inverted Image Pyramid Networks [49.35689698870247]
Inverted Image Pyramid Networks (PIIP) と呼ばれる新しいネットワークアーキテクチャを提案する。
私たちの中核となる考え方は、パラメータサイズの異なるモデルを使用して、画像ピラミッドの解像度の異なるレベルを処理することです。
PIIPは、オブジェクト検出、セグメンテーション、画像分類などのタスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-06T17:59:10Z) - ExtremeMETA: High-speed Lightweight Image Segmentation Model by Remodeling Multi-channel Metamaterial Imagers [8.976310466890805]
本稿では,ExtremeC3Netに基づくカーネル軽量セグメンテーションモデルExtremeMETAを提案する。
その結果、最適化された効率的な設計により、mIoUでのセグメンテーション性能は92.45から95.97に向上し、計算FLOPは461.07 MMacから166.03 MMacに低下した。
論文 参考訳(メタデータ) (2024-05-27T18:03:37Z) - DiM: Diffusion Mamba for Efficient High-Resolution Image Synthesis [56.849285913695184]
Diffusion Mamba (DiM) は高分解能画像合成のためのシーケンスモデルである。
DiMアーキテクチャは高解像度画像の推論時間効率を実現する。
実験は、我々のDiMの有効性と効率を実証する。
論文 参考訳(メタデータ) (2024-05-23T06:53:18Z) - LKFormer: Large Kernel Transformer for Infrared Image Super-Resolution [5.478440050117844]
本稿では,LKFormer(Large Kernel Transformer)と呼ばれる強力なトランスモデルを提案する。
これは主に、非局所的な特徴モデリングを実行するために、大きなカーネルとの深度的な畳み込みを利用する。
我々は,GPFN(Gated-Pixel Feed-Forward Network)と呼ばれる新しいフィードフォワードネットワーク構造を考案し,ネットワーク内の情報フローを管理するLKFormerの能力を強化した。
論文 参考訳(メタデータ) (2024-01-22T11:28:24Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - MicroISP: Processing 32MP Photos on Mobile Devices with Deep Learning [114.66037224769005]
エッジデバイスに特化して設計された新しいMicroISPモデルを提案する。
提案したソリューションは,モバイルMLライブラリを使用して,最新のスマートフォン上で最大32MPの写真を処理できる。
モデルのアーキテクチャは柔軟で、計算能力の異なるデバイスに複雑性を調整することができる。
論文 参考訳(メタデータ) (2022-11-08T17:40:50Z) - Toward Efficient Hyperspectral Image Processing inside Camera Pixels [1.6449390849183356]
ハイパースペクトルカメラは、数百のスペクトル帯が存在するため、大量のデータを生成する。
この問題を軽減するために,PIP (Processing-in-Pixel) 形式を提案する。
我々のPIP最適化カスタムCNN層は、入力データを効果的に圧縮し、データをHSI処理ユニットに送信するために必要な帯域幅を大幅に削減する。
論文 参考訳(メタデータ) (2022-03-11T01:06:02Z) - P2M: A Processing-in-Pixel-in-Memory Paradigm for Resource-Constrained
TinyML Applications [4.102356304183255]
高い解像度の入力画像は、カメラとAI処理ユニットの間でフレームごとにストリームされ、エネルギー、帯域幅、セキュリティボトルネックを引き起こす必要がある。
本稿では,アナログマルチチャネル,マルチビット畳み込み,ReLUのサポートを追加して画素配列をカスタマイズする,新しいProcessing-in-Pixel-in-Memory(P2M)パラダイムを提案する。
以上の結果から,P2Mはセンサやアナログからデジタル変換へのデータ転送帯域を21倍に削減し,TinyML上でMobileNetV2モデルを処理する際に発生するエネルギ遅延生成物(EDP)が得られた。
論文 参考訳(メタデータ) (2022-03-07T04:15:29Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - Interleaving: Modular architectures for fault-tolerant photonic quantum
computing [50.591267188664666]
フォトニック核融合型量子コンピューティング(FBQC)は低損失フォトニック遅延を用いる。
FBQCのモジュールアーキテクチャとして,これらのコンポーネントを結合して「インターリービングモジュール」を形成するアーキテクチャを提案する。
遅延の乗法的パワーを行使すると、各加群はヒルベルト空間に数千の物理量子ビットを加えることができる。
論文 参考訳(メタデータ) (2021-03-15T18:00:06Z) - An Ultra Fast Low Power Convolutional Neural Network Image Sensor with
Pixel-level Computing [3.41234610095684]
本稿では,カラム読み出し回路前の畳み込み動作を可能にし,画像読み出し速度を大幅に向上できるpip( processing-in-pixel) cmosセンサアーキテクチャを提案する。
言い換えれば、計算効率は4.75 TOPS/wであり、最先端の約3.6倍である。
論文 参考訳(メタデータ) (2021-01-09T07:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。