論文の概要: FiCABU: A Fisher-Based, Context-Adaptive Machine Unlearning Processor for Edge AI
- arxiv url: http://arxiv.org/abs/2511.05605v1
- Date: Thu, 06 Nov 2025 08:34:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.490654
- Title: FiCABU: A Fisher-Based, Context-Adaptive Machine Unlearning Processor for Edge AI
- Title(参考訳): FiCABU:エッジAIのためのフィッシャーベースのコンテキスト適応型機械学習プロセッサ
- Authors: Eun-Su Cho, Jongin Choi, Jeongmin Jin, Jae-Jin Lee, Woojoo Lee,
- Abstract要約: 私たちは、エッジAIプロセッサにアンラーニングをもたらすソフトウェアハードウェアの共同設計であるFiCABU(Fisher-based Context-Adaptive Balanced Unlearning)を紹介します。
FiCABUは、(i)コンテキスト適応アンラーニング(Context-Adaptive Unlearning)と、(i)コンテキスト適応アンラーニング(Context-Adaptive Unlearning)を組み合わせる。
- 参考スコア(独自算出の注目度): 3.5177714872539894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning, driven by privacy regulations and the "right to be forgotten", is increasingly needed at the edge, yet server-centric or retraining-heavy methods are impractical under tight computation and energy budgets. We present FiCABU (Fisher-based Context-Adaptive Balanced Unlearning), a software-hardware co-design that brings unlearning to edge AI processors. FiCABU combines (i) Context-Adaptive Unlearning, which begins edits from back-end layers and halts once the target forgetting is reached, with (ii) Balanced Dampening, which scales dampening strength by depth to preserve retain accuracy. These methods are realized in a full RTL design of a RISC-V edge AI processor that integrates two lightweight IPs for Fisher estimation and dampening into a GEMM-centric streaming pipeline, validated on an FPGA prototype and synthesized in 45 nm for power analysis. Across CIFAR-20 and PinsFaceRecognition with ResNet-18 and ViT, FiCABU achieves random-guess forget accuracy while matching the retraining-free Selective Synaptic Dampening (SSD) baseline on retain accuracy, reducing computation by up to 87.52 percent (ResNet-18) and 71.03 percent (ViT). On the INT8 hardware prototype, FiCABU further improves retain preservation and reduces energy to 6.48 percent (CIFAR-20) and 0.13 percent (PinsFaceRecognition) of the SSD baseline. In sum, FiCABU demonstrates that back-end-first, depth-aware unlearning can be made both practical and efficient for resource-constrained edge AI devices.
- Abstract(参考訳): プライバシ規則と“忘れられる権利”によって駆動される機械学習は、エッジでますます必要とされているが、サーバ中心あるいはリトレーニングの重い手法は、厳密な計算とエネルギー予算の下では実用的ではない。
We present FiCABU (Fisher-based Context-Adaptive Balanced Unlearning), a software-hardware co-design that bring unlearning to edge AI processor。
FiCABUが組み合わさる
i) コンテキスト適応型学習(Context-Adaptive Unlearning) - バックエンド層からの編集を開始し、ターゲットが忘れられたときに停止する。
(二 減衰強度を深さで拡大して精度を維持するバランスダンピング。)
これらの手法は、釣り推定と減衰のための2つの軽量IPを統合したRISC-VエッジAIプロセッサの完全なRTL設計で実現され、FPGAプロトタイプ上で検証され、電力分析のために45nmで合成される。
CIFAR-20とPinsFaceRecognitionをResNet-18とViTで比較すると、FiCABUはトレーニング不要のSelective Synaptic Dampening(SSD)ベースラインを精度を保ちながらランダムな忘れの精度を実現し、最大87.52%(ResNet-18)と71.03%(ViT)の計算量を削減した。
INT8のハードウェアプロトタイプでは、FiCABUはさらに保存性を改善し、SSDベースラインの6.48パーセント(CIFAR-20)と0.13パーセント(PinsFaceRecognition)にエネルギーを削減している。
要約すると、FiCABUは、リソース制約のあるエッジAIデバイスに対して、バックエンドファーストで深度対応の未学習を実用的かつ効率的にできることを示した。
関連論文リスト
- Tri-Accel: Curvature-Aware Precision-Adaptive and Memory-Elastic Optimization for Efficient GPU Usage [0.6511750267058007]
Tri-Accelは3つのアクセラレーション戦略と、トレーニング中の適応パラメータを併用する統合最適化フレームワークである。
ResNet-18とEfficientNet-B0を搭載したCIFAR-10では、Tri-Accelはトレーニング時間の最大9.9%削減とメモリ使用量の13.3%削減を実現している。
静的混合精度トレーニングと比較して、Tri-Accelは78.1%の精度を維持し、標準ハードウェアのメモリフットプリントを0.35GBから0.31GBに削減している。
論文 参考訳(メタデータ) (2025-08-23T05:38:42Z) - DeltaLLM: A Training-Free Framework Exploiting Temporal Sparsity for Efficient Edge LLM Inference [19.987309147268586]
デルタLLMは、リソース制約エッジデバイス上での効率的なLCM推論を実現するために、注意パターンの時間的間隔を利用する訓練不要のフレームワークである。
我々は、エッジデバイスフレンドリーなBitNet-b1.58-2B-4TモデルとLlama3.2-1B-Instructモデルについて、様々な言語タスクで評価する。
論文 参考訳(メタデータ) (2025-07-25T18:23:18Z) - Joint Pruning and Channel-wise Mixed-Precision Quantization for Efficient Deep Neural Networks [10.229120811024162]
ディープニューラルネットワーク(DNN)は、エッジデバイスへのデプロイメントに重大な課題をもたらす。
この問題に対処する一般的なアプローチは、プルーニングと混合精度量子化である。
そこで本研究では,軽量な勾配探索を用いて共同で適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T08:07:02Z) - EdgeOL: Efficient in-situ Online Learning on Edge Devices [51.86178757050963]
予測精度、微調整実行時間、エネルギー効率を最適化するエッジオンライン学習フレームワークであるEdgeOLを提案する。
実験結果から、EdgeOLは、全体の微調整実行時間を64%削減し、エネルギー消費を52%削減し、オンラインの即時学習戦略よりも平均推定精度を1.75%向上させることがわかった。
論文 参考訳(メタデータ) (2024-01-30T02:41:05Z) - SWAP: Sparse Entropic Wasserstein Regression for Robust Network Pruning [9.60349706518775]
本研究では,ニューラルネットワークプルーニングにおける経験的漁獲情報行列の計算における不正確な勾配問題に対処する。
本稿では,最適輸送問題の幾何学的特性を活かした,エントロピー的ワッサースタイン回帰(EWR)の定式化であるSWAPを紹介する。
提案手法は,ネットワークパラメータの4分の1未満のMobileNetV1において,精度が6%向上し,テスト損失が8%向上した。
論文 参考訳(メタデータ) (2023-10-07T21:15:32Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。