論文の概要: Predictive Inference With Fast Feature Conformal Prediction
- arxiv url: http://arxiv.org/abs/2412.00653v1
- Date: Sun, 01 Dec 2024 03:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 21:11:22.08377
- Title: Predictive Inference With Fast Feature Conformal Prediction
- Title(参考訳): 高速な特徴整形予測による予測推論
- Authors: Zihao Tang, Boyuan Wang, Chuan Wen, Jiaye Teng,
- Abstract要約: 我々は,新しい非整合性スコアを特徴とするFast Feature Conformal Prediction (FFCP)を導入し,実用化に有用である。
実証的な検証では、FFCPは特徴整形予測(FCP)と互換性があり、計算時間の約50倍の大幅な短縮を実現している。
- 参考スコア(独自算出の注目度): 11.454932945887025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conformal prediction is widely adopted in uncertainty quantification, due to its post-hoc, distribution-free, and model-agnostic properties. In the realm of modern deep learning, researchers have proposed Feature Conformal Prediction (FCP), which deploys conformal prediction in a feature space, yielding reduced band lengths. However, the practical utility of FCP is limited due to the time-consuming non-linear operations required to transform confidence bands from feature space to output space. In this paper, we introduce Fast Feature Conformal Prediction (FFCP), which features a novel non-conformity score and is convenient for practical applications. FFCP serves as a fast version of FCP, in that it equivalently employs a Taylor expansion to approximate the aforementioned non-linear operations in FCP. Empirical validations showcase that FFCP performs comparably with FCP (both outperforming the vanilla version) while achieving a significant reduction in computational time by approximately 50x. The code is available at https://github.com/ElvisWang1111/FastFeatureCP
- Abstract(参考訳): コンフォーマル予測は、ポストホック、分布自由、モデルに依存しない性質のため、不確実な定量化において広く採用されている。
現代のディープラーニングの領域において、研究者は特徴空間において共形予測を展開し、帯域長を減少させる特徴整形予測(FCP)を提案している。
しかし、FCPの実用性は、信頼性帯域を特徴空間から出力空間に変換するのに必要な時間を要する非線形演算のために制限されている。
本稿では,新しい非整合性スコアを特徴とするFast Feature Conformal Prediction (FFCP)を紹介する。
FFCP は FCP の高速版として機能し、前述の FCP の非線形演算を近似するためにテイラー展開を等価に用いている。
実証的な検証では、FFCPはFCP(どちらもバニラバージョンより優れている)と互換性があり、計算時間の約50倍の大幅な短縮を実現している。
コードはhttps://github.com/ElvisWang1111/FastFeatureCPで公開されている。
関連論文リスト
- Online Conformal Probabilistic Numerics via Adaptive Edge-Cloud Offloading [52.499838151272016]
本研究は, PLS が生成する HPD 集合を, 長期のカバレッジ要件を保証するため, キャリブレーションする手法を提案する。
提案手法は,クラウドからエッジへの散発的なフィードバックを前提としたオンライン共形予測PLS (OCP-PLS) と呼ばれる。
OCP-PLSの有効性は、カバレッジ、予測セットサイズ、クラウド利用のトレードオフに関する洞察をもたらす実験を通じて検証される。
論文 参考訳(メタデータ) (2025-03-18T17:30:26Z) - Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [49.77734021302196]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバヘッドの最大60%削減,システム遅延の50%削減を実現している。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - A New Non-Binary Response Generation Scheme from Physical Unclonable Functions [2.142505989409247]
PUFビットの1-確率に基づく新しい非バイナリ応答生成方式を提案する。
FPGA実装の結果は,従来の研究と比べ,有効鍵長が有意に増加したことを示している。
論文 参考訳(メタデータ) (2024-10-27T03:24:17Z) - Trainable Fixed-Point Quantization for Deep Learning Acceleration on
FPGAs [30.325651150798915]
量子化は、組み込みFPGAのようなリソース制約のあるデバイスにディープラーニングモデルをデプロイするための重要な技術である。
モデルトレーニング中の二点位置を自動的に学習する,トレーニング可能な固定点量子化手法であるQFXを提案する。
QFXはPyTorchベースのライブラリとして実装され、FPGA HLSでサポートされている固定点演算を効率的にエミュレートする。
論文 参考訳(メタデータ) (2024-01-31T02:18:27Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Selective Network Linearization for Efficient Private Inference [49.937470642033155]
本稿では,予測精度を維持しつつReLUを選択的に線形化する勾配に基づくアルゴリズムを提案する。
その結果、現在の技術よりも4.25%$の精度(so-ReLUは50K)、または2.2times$のレイテンシ(so-accuracyは70%)が低いことがわかった。
論文 参考訳(メタデータ) (2022-02-04T19:00:24Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。