論文の概要: In-Memory Nearest Neighbor Search with FeFET Multi-Bit
Content-Addressable Memories
- arxiv url: http://arxiv.org/abs/2011.07095v1
- Date: Fri, 13 Nov 2020 19:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:46:14.493382
- Title: In-Memory Nearest Neighbor Search with FeFET Multi-Bit
Content-Addressable Memories
- Title(参考訳): fefet多ビットコンテンツ対応メモリを用いたメモリ近傍探索
- Authors: Arman Kazemi, Mohammad Mehdi Sharifi, Ann Franchesca Laguna, Franz
M\"uller, Ramin Rajaei, Ricardo Olivo, Thomas K\"ampfe, Michael Niemier, X.
Sharon Hu
- Abstract要約: 本稿では, 強誘電体FETに基づいて, マルチビットコンテンツ適応メモリ(MCAM)を用いて評価可能な新しい距離関数を提案する。
提案手法は,Omniglotデータセットの5方向5ショット分類タスクに対して98.34%の精度を実現する。
これは、最先端のTCAMベースの実装をイソエネルギーとイソ遅延で13%の精度で改善したことを意味する。
- 参考スコア(独自算出の注目度): 0.5661403709207713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nearest neighbor (NN) search is an essential operation in many applications,
such as one/few-shot learning and image classification. As such, fast and
low-energy hardware support for accurate NN search is highly desirable. Ternary
content-addressable memories (TCAMs) have been proposed to accelerate NN search
for few-shot learning tasks by implementing $L_\infty$ and Hamming distance
metrics, but they cannot achieve software-comparable accuracies. This paper
proposes a novel distance function that can be natively evaluated with
multi-bit content-addressable memories (MCAMs) based on ferroelectric FETs
(FeFETs) to perform a single-step, in-memory NN search. Moreover, this approach
achieves accuracies comparable to floating-point precision implementations in
software for NN classification and one/few-shot learning tasks. As an example,
the proposed method achieves a 98.34% accuracy for a 5-way, 5-shot
classification task for the Omniglot dataset (only 0.8% lower than
software-based implementations) with a 3-bit MCAM. This represents a 13%
accuracy improvement over state-of-the-art TCAM-based implementations at
iso-energy and iso-delay. The presented distance function is resilient to the
effects of FeFET device-to-device variations. Furthermore, this work
experimentally demonstrates a 2-bit implementation of FeFET MCAM using AND
arrays from GLOBALFOUNDRIES to further validate proof of concept.
- Abstract(参考訳): 近距離探索(nn)は、ワンショット学習や画像分類など、多くのアプリケーションにおいて必須の操作である。
そのため、正確なNN検索のための高速で低エネルギーのハードウェアサポートが極めて望ましい。
l_\infty$ と hamming distance metrics を実装して nn による少数学習タスクの探索を高速化するために,tcam (ternary content-addressable memories) が提案されている。
本稿では,フェロ誘電体FET(FeFET)に基づくマルチビットコンテントアドレナブルメモリ(MCAM)をネイティブに評価して,単一ステップのインメモリNNサーチを実現する,新しい距離関数を提案する。
さらに,NN分類用ソフトウェアにおける浮動小数点精度実装やワンショット学習タスクに匹敵する精度を実現する。
例えば、提案手法は、3ビットmcamを持つ全言語データセット(ソフトウェアベース実装よりもわずか0.8%低い)の5ウェイ、5ショットの分類タスクに対して98.34%の精度を達成している。
これは、最先端のTCAMベースの実装をイソエネルギーとイソ遅延で13%の精度で改善したことを意味する。
提示された距離関数は、FeFETデバイス間変動の影響に耐性がある。
さらに、GLOBALFOUNDRIESの配列を用いたFeFET MCAMの2ビット実装を実験的に実証し、概念実証をさらに進める。
関連論文リスト
- Efficient and Reliable Vector Similarity Search Using Asymmetric Encoding with NAND-Flash for Many-Class Few-Shot Learning [0.3796226700483906]
NANDベースのマルチビットコンテンツアドレスメモリ(MCAM)は、高密度で容量が大きいため、有望な選択肢である。
その可能性にもかかわらず、MCAMは制限されたワードライン数、限定された量子化レベル、様々な文字列電流やボトルネック効果のような非理想効果といった制限に直面している。
我々の統合フレームワークは、検索イテレーションを最大32倍に減らし、全体的な精度は1.58%から6.94%に向上した。
論文 参考訳(メタデータ) (2024-09-12T08:29:37Z) - High-speed Low-consumption sEMG-based Transient-state micro-Gesture
Recognition [6.649481653007372]
提案されたSNNの精度はそれぞれ83.85%と93.52%である。
この手法は、高精度、高速、低消費電力のマイクロジェスチャー認識タスクに使用できる。
論文 参考訳(メタデータ) (2024-03-04T08:59:12Z) - FLIQS: One-Shot Mixed-Precision Floating-Point and Integer Quantization Search [50.07268323597872]
本稿では,整数浮動小数点モデルと低精度浮動小数点モデルの両方において再学習を不要とする,最初のワンショット混合量子化探索を提案する。
整数モデルでは、ImageNet上のResNet-18の精度を1.31%、ResNet-50の精度を0.90%向上させる。
従来のFP8モデルと比較して,新しい混合精度浮動小数点探索を探索し,最大0.98%改善した。
論文 参考訳(メタデータ) (2023-08-07T04:17:19Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Disentangle Your Dense Object Detector [82.22771433419727]
深層学習に基づく高密度物体検出器はここ数年で大きな成功を収め、ビデオ理解などのマルチメディアアプリケーションにも応用されてきた。
しかし、現在の高密度検出器の訓練パイプラインは、保持できない多くの接続に妥協されている。
そこで本研究では, 簡易かつ効果的な遠心分離機構を設計し, 現在の最先端検出器に統合するDED(Disentangled Dense Object Detector)を提案する。
論文 参考訳(メタデータ) (2021-07-07T00:52:16Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - End-to-End Object Detection with Fully Convolutional Network [71.56728221604158]
エンドツーエンド検出を実現するために,分類のための予測対応ワン・ツー・ワン (POTO) ラベルの割り当てを導入する。
局所領域における畳み込みの判別性を向上させるために, 簡易な3次元maxフィルタ(3dmf)を提案する。
エンドツーエンドのフレームワークは,COCOおよびCrowdHumanデータセット上のNMSを用いて,最先端の多くの検出器と競合する性能を実現する。
論文 参考訳(メタデータ) (2020-12-07T09:14:55Z) - Meta-Generating Deep Attentive Metric for Few-shot Classification [53.07108067253006]
本稿では,新しい数ショット学習タスクのための特定のメトリックを生成するための,新しい深度メタジェネレーション手法を提案する。
本研究では,各タスクの識別基準を生成するのに十分なフレキシブルな3層深い注意ネットワークを用いて,メトリクスを構造化する。
特に挑戦的なケースでは、最先端の競合他社よりも驚くほどパフォーマンスが向上しています。
論文 参考訳(メタデータ) (2020-12-03T02:07:43Z) - Dynamic Feature Pyramid Networks for Object Detection [40.24111664691307]
本稿では,各層に異なるカーネルサイズを持つ畳み込みフィルタを組み込んで,受容場を拡大するFPNを提案する。
計算コストの異なる複数の分岐からなる新しい動的FPN(DyFPN)を提案する。
ベンチマーク実験により,提案したDyFPNは計算資源の最適割り当てにより性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2020-12-01T19:03:55Z) - MAFF-Net: Filter False Positive for 3D Vehicle Detection with
Multi-modal Adaptive Feature Fusion [35.408594498595335]
マルチモーダル核融合に基づく3次元車両検出は、自律運転など多くのアプリケーションにおいて重要な課題である。
本稿では,エンド・ツー・エンドのトレーニング可能なシングルステージ・マルチモーダル適応型ネットワークを提案する。
異なる利用シナリオに対応するために、2つの融合技術が提案されている。
論文 参考訳(メタデータ) (2020-09-23T06:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。