論文の概要: Peregrine: One-Shot Fine-Tuning for FHE Inference of General Deep CNNs
- arxiv url: http://arxiv.org/abs/2511.18976v1
- Date: Mon, 24 Nov 2025 10:47:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.160883
- Title: Peregrine: One-Shot Fine-Tuning for FHE Inference of General Deep CNNs
- Title(参考訳): Peregrine: 汎用CNNのFHE推論のためのワンショットファインチューニング
- Authors: Huaming Ling, Ying Wang, Si Chen, Junfeng Fan,
- Abstract要約: FHEに基づく推論に一般の深層CNNを適用する際の2つの根本的な課題に対処する。
1つ目は、ReLUのような非線形活性化を低次で近似し、精度の劣化を最小限に抑えることである。
2つ目は、FHE推論の高分解能画像処理を制限する暗号容量障壁を克服することである。
- 参考スコア(独自算出の注目度): 5.719717928243504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address two fundamental challenges in adapting general deep CNNs for FHE-based inference: approximating non-linear activations such as ReLU with low-degree polynomials while minimizing accuracy degradation, and overcoming the ciphertext capacity barrier that constrains high-resolution image processing on FHE inference. Our contributions are twofold: (1) a single-stage fine-tuning (SFT) strategy that directly converts pre-trained CNNs into FHE-friendly forms using low-degree polynomials, achieving competitive accuracy with minimal training overhead; and (2) a generalized interleaved packing (GIP) scheme that is compatible with feature maps of virtually arbitrary spatial resolutions, accompanied by a suite of carefully designed homomorphic operators that preserve the GIP-form encryption throughout computation. These advances enable efficient, end-to-end FHE inference across diverse CNN architectures. Experiments on CIFAR-10, ImageNet, and MS COCO demonstrate that the FHE-friendly CNNs obtained via our SFT strategy achieve accuracy comparable to baselines using ReLU or SiLU activations. Moreover, this work presents the first demonstration of FHE-based inference for YOLO architectures in object detection leveraging low-degree polynomial activations.
- Abstract(参考訳): 本稿では,FHE推論に汎用的な深度CNNを適用する際の基本的な課題として,ReLUなどの非線形アクティベーションを低次多項式で近似し,精度の劣化を最小限に抑えるとともに,FHE推論に高分解能画像処理を制約する暗号容量障壁を克服する。
コントリビューションは,(1) 学習済みCNNを低次多項式を用いて直接FHEに変換し,最小の訓練オーバーヘッドで競争精度を達成し,(2) 仮想空間解像度の特徴マップと互換性のある一般化されたインターリーブド・パッキング(GIP) スキームと,(2) 計算全体を通してGIP形式の暗号化を保存した慎重に設計された同型演算子群を伴って構成する,単一ステージファインチューニング(SFT)戦略である。
これらの進歩により、様々なCNNアーキテクチャにわたる効率的なエンドツーエンドのFHE推論が可能になる。
CIFAR-10, ImageNet, MS COCOによる実験により, 我々のSFT戦略により得られたFHEフレンドリなCNNが, ReLU や SiLU のアクティベーションを用いてベースラインに匹敵する精度を達成した。
さらに、この研究は、低次多項式活性化を利用したオブジェクト検出において、YOLOアーキテクチャに対するFHEに基づく推論の最初の実演を示す。
関連論文リスト
- Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - PAPER: Privacy-Preserving ResNet Models using Low-Degree Polynomial Approximations and Structural Optimizations on Leveled FHE [5.819818547073678]
最近の研究は、完全同型暗号化(FHE)を用いた深層畳み込みニューラルネットワーク(CNN)の実行により、非インタラクティブなプライバシ保護推論をより実用的なものにしている。
また、非線形アクティベーションの高次近似にも依存しており、これは平文のReLUモデルと比較して乗算深度を増大させ、精度を2-5%削減する。
本研究では、プライバシ保護推論において広く採用されているベンチマークアーキテクチャであるResNetsに注目し、FHE非インタラクティブモデルとそれに対応するモデルの精度ギャップを埋める。
論文 参考訳(メタデータ) (2025-09-26T19:10:23Z) - Double-Shot 3D Shape Measurement with a Dual-Branch Network for Structured Light Projection Profilometry [14.749887303860717]
我々は、異なる構造光(SL)変調を処理するために、デュアルブランチ畳み込みニューラルネットワーク(CNN)-トランスフォーマーネットワーク(PDCNet)を提案する。
PDCNet内では、Transformerブランチを使用してフリンジイメージのグローバルな認識をキャプチャし、CNNブランチはスペックルイメージのローカル詳細を収集するように設計されている。
提案手法は, 自己生成データセット上で高精度な結果が得られる一方で, フランジオーダーの曖昧さを低減できる。
論文 参考訳(メタデータ) (2024-07-19T10:49:26Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Training Large Scale Polynomial CNNs for E2E Inference over Homomorphic
Encryption [33.35896071292604]
推論中に同型暗号化(HE)で実行できる大規模なCNNのトレーニングは難しい。
本稿ではResNet-152やConvNeXtモデルのような大規模CNNのための新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-26T20:41:37Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - An Adaptive and Stability-Promoting Layerwise Training Approach for Sparse Deep Neural Network Architecture [0.0]
この研究は、与えられたトレーニングデータセットに対してうまく一般化するディープニューラルネットワーク(DNN)アーキテクチャを開発するための2段階適応フレームワークを提案する。
第1段階では、新しいレイヤを毎回追加し、前のレイヤでパラメータを凍結することで独立してトレーニングする、レイヤワイズトレーニングアプローチが採用されている。
本稿では, 学習アルゴリズムの望ましい特性として, エプシロン・デルタ安定促進の概念を導入し, 多様体正規化を用いることで, エプシロン・デルタ安定促進アルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-13T09:51:16Z) - Deep Online Correction for Monocular Visual Odometry [23.124372375670887]
本研究では,単眼視能測定のための深層オンライン補正(DOC)フレームワークを提案する。
深度マップと初期ポーズは、自己教師された方法で訓練された畳み込みニューラルネットワーク(CNN)から得られる。
本手法は、KITTI Odometryベンチマークにおける相対変換誤差(RTE)=2.0%で優れた性能を発揮します。
09.
論文 参考訳(メタデータ) (2021-03-18T05:55:51Z) - Implicit Convex Regularizers of CNN Architectures: Convex Optimization
of Two- and Three-Layer Networks in Polynomial Time [70.15611146583068]
本稿では,ReLUアクティベーションを用いた畳み込みニューラルネットワーク(CNN)のトレーニングについて検討する。
我々は,データサンプル数,ニューロン数,データ次元に関して,厳密な凸最適化を導入する。
論文 参考訳(メタデータ) (2020-06-26T04:47:20Z) - What Deep CNNs Benefit from Global Covariance Pooling: An Optimization
Perspective [102.37204254403038]
我々は最適化の観点から、GCPの深いCNNのメリットを理解する試みを行っている。
GCPは最適化のランドスケープをよりスムーズにし、勾配をより予測できることを示す。
多様なタスクに対して様々な深部CNNモデルを用いて広範な実験を行い,その結果を強く支持する。
論文 参考訳(メタデータ) (2020-03-25T07:00:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。