論文の概要: Predictive Inference With Fast Feature Conformal Prediction
- arxiv url: http://arxiv.org/abs/2412.00653v1
- Date: Sun, 01 Dec 2024 03:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:51:34.709972
- Title: Predictive Inference With Fast Feature Conformal Prediction
- Title(参考訳): 高速な特徴整形予測による予測推論
- Authors: Zihao Tang, Boyuan Wang, Chuan Wen, Jiaye Teng,
- Abstract要約: 我々は,新しい非整合性スコアを特徴とするFast Feature Conformal Prediction (FFCP)を導入し,実用化に有用である。
実証的な検証では、FFCPは特徴整形予測(FCP)と互換性があり、計算時間の約50倍の大幅な短縮を実現している。
- 参考スコア(独自算出の注目度): 11.454932945887025
- License:
- Abstract: Conformal prediction is widely adopted in uncertainty quantification, due to its post-hoc, distribution-free, and model-agnostic properties. In the realm of modern deep learning, researchers have proposed Feature Conformal Prediction (FCP), which deploys conformal prediction in a feature space, yielding reduced band lengths. However, the practical utility of FCP is limited due to the time-consuming non-linear operations required to transform confidence bands from feature space to output space. In this paper, we introduce Fast Feature Conformal Prediction (FFCP), which features a novel non-conformity score and is convenient for practical applications. FFCP serves as a fast version of FCP, in that it equivalently employs a Taylor expansion to approximate the aforementioned non-linear operations in FCP. Empirical validations showcase that FFCP performs comparably with FCP (both outperforming the vanilla version) while achieving a significant reduction in computational time by approximately 50x. The code is available at https://github.com/ElvisWang1111/FastFeatureCP
- Abstract(参考訳): コンフォーマル予測は、ポストホック、分布自由、モデルに依存しない性質のため、不確実な定量化において広く採用されている。
現代のディープラーニングの領域において、研究者は特徴空間において共形予測を展開し、帯域長を減少させる特徴整形予測(FCP)を提案している。
しかし、FCPの実用性は、信頼性帯域を特徴空間から出力空間に変換するのに必要な時間を要する非線形演算のために制限されている。
本稿では,新しい非整合性スコアを特徴とするFast Feature Conformal Prediction (FFCP)を紹介する。
FFCP は FCP の高速版として機能し、前述の FCP の非線形演算を近似するためにテイラー展開を等価に用いている。
実証的な検証では、FFCPはFCP(どちらもバニラバージョンより優れている)と互換性があり、計算時間の約50倍の大幅な短縮を実現している。
コードはhttps://github.com/ElvisWang1111/FastFeatureCPで公開されている。
関連論文リスト
- A New Non-Binary Response Generation Scheme from Physical Unclonable Functions [2.142505989409247]
PUFビットの1-確率に基づく新しい非バイナリ応答生成方式を提案する。
FPGA実装の結果は,従来の研究と比べ,有効鍵長が有意に増加したことを示している。
論文 参考訳(メタデータ) (2024-10-27T03:24:17Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Trainable Fixed-Point Quantization for Deep Learning Acceleration on
FPGAs [30.325651150798915]
量子化は、組み込みFPGAのようなリソース制約のあるデバイスにディープラーニングモデルをデプロイするための重要な技術である。
モデルトレーニング中の二点位置を自動的に学習する,トレーニング可能な固定点量子化手法であるQFXを提案する。
QFXはPyTorchベースのライブラリとして実装され、FPGA HLSでサポートされている固定点演算を効率的にエミュレートする。
論文 参考訳(メタデータ) (2024-01-31T02:18:27Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - On Convergence of FedProx: Local Dissimilarity Invariant Bounds,
Non-smoothness and Beyond [41.082982732100696]
我々はFedProxの収束理論とアルゴリズム安定性のレンズによるミニバッチ拡張の新しい局所的な相似性を開発する。
一連のベンチマークFLデータセットの予備実験結果が報告され、FedProxのサンプル効率を改善するためのミニバッチの利点を示す。
論文 参考訳(メタデータ) (2022-06-10T15:35:10Z) - Selective Network Linearization for Efficient Private Inference [49.937470642033155]
本稿では,予測精度を維持しつつReLUを選択的に線形化する勾配に基づくアルゴリズムを提案する。
その結果、現在の技術よりも4.25%$の精度(so-ReLUは50K)、または2.2times$のレイテンシ(so-accuracyは70%)が低いことがわかった。
論文 参考訳(メタデータ) (2022-02-04T19:00:24Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - iffDetector: Inference-aware Feature Filtering for Object Detection [70.8678270164057]
Inference-aware Feature Filtering (IFF)モジュールを導入し、現代の検出器と簡単に組み合わせることができる。
IFFは、畳み込み機能を強化するためにハイレベルなセマンティクスを活用することでクローズドループ最適化を行う。
IFFはCNNベースの物体検出器とプラグアンドプレイ方式で融合でき、計算コストのオーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2020-06-23T02:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。