論文の概要: Optimizing In-Context Learning for Efficient Full Conformal Prediction
- arxiv url: http://arxiv.org/abs/2509.01840v1
- Date: Mon, 01 Sep 2025 23:49:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.864186
- Title: Optimizing In-Context Learning for Efficient Full Conformal Prediction
- Title(参考訳): 効率的な完全等角予測のための文脈内学習の最適化
- Authors: Weicao Deng, Sangwoo Park, Min Li, Osvaldo Simeone,
- Abstract要約: Conformal Prediction (CP) は、分布のないカバレッジを保証する予測セットを提供する。
メタラーニングやインコンテキストラーニング(ICL)に基づく最近のアプローチは、欠点を部分的に軽減している。
本稿では,ICCをベースとした拡張FCP(E-ICL+FCP)と呼ばれる効率的なFCPフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.112458991655856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable uncertainty quantification is critical for trustworthy AI. Conformal Prediction (CP) provides prediction sets with distribution-free coverage guarantees, but its two main variants face complementary limitations. Split CP (SCP) suffers from data inefficiency due to dataset partitioning, while full CP (FCP) improves data efficiency at the cost of prohibitive retraining complexity. Recent approaches based on meta-learning or in-context learning (ICL) partially mitigate these drawbacks. However, they rely on training procedures not specifically tailored to CP, which may yield large prediction sets. We introduce an efficient FCP framework, termed enhanced ICL-based FCP (E-ICL+FCP), which employs a permutation-invariant Transformer-based ICL model trained with a CP-aware loss. By simulating the multiple retrained models required by FCP without actual retraining, E-ICL+FCP preserves coverage while markedly reducing both inefficiency and computational overhead. Experiments on synthetic and real tasks demonstrate that E-ICL+FCP attains superior efficiency-coverage trade-offs compared to existing SCP and FCP baselines.
- Abstract(参考訳): 信頼できる不確実性定量化は、信頼できるAIにとって重要である。
Conformal Prediction (CP)は、分布のないカバレッジ保証を備えた予測セットを提供するが、2つの主要な変種は相補的な制限に直面している。
Split CP (SCP) はデータセット分割によるデータ効率の低下に悩まされ、FCP (Full CP) はデータ効率を向上させる。
メタラーニングやインコンテキストラーニング(ICL)に基づく最近のアプローチは、これらの欠点を部分的に軽減している。
しかし、CPに特化していないトレーニング手順に依存しており、大きな予測セットが得られる可能性がある。
本稿では,ICCをベースとした拡張FCP(E-ICL+FCP)と呼ばれる効率的なFCPフレームワークを提案する。
E-ICL+FCPは、実際のリトレーニングなしでFCPが必要とする複数の再トレーニングモデルをシミュレートすることにより、カバー範囲を保ちながら、非効率性と計算オーバーヘッドを著しく低減する。
合成および実タスクの実験により、E-ICL+FCP は既存の SCP や FCP のベースラインと比較して効率・被覆トレードオフが優れていることが示された。
関連論文リスト
- To Theoretically Understand Transformer-Based In-Context Learning for Optimizing CSMA [16.004032609412445]
バイナリ指数バックオフ方式はWiFi 7で広く使われているが、動的チャネル環境下ではスループットが低下している。
最近のモデルベースアプローチは、既知のノード密度と固定されたノード密度の下でのバックオフ戦略を単純に最適化する。
本稿では、チャネルアクセスを最適化するためのトランスフォーマーベースのインコンテキスト学習(ICL)理論を初めて提案する。
論文 参考訳(メタデータ) (2025-07-31T23:31:23Z) - Constrain Alignment with Sparse Autoencoders [45.131670081186]
特徴レベルの制約付き優先度最適化は、安定性を確保しつつアライメントプロセスを簡素化するために設計された新しい手法である。
提案手法は、訓練されたスパースオートエンコーダで活性化されるスパース機能と、逐次KL分散の品質を用いて効率を向上する。
論文 参考訳(メタデータ) (2024-11-12T07:54:13Z) - Beyond Conformal Predictors: Adaptive Conformal Inference with Confidence Predictors [1.3812010983144802]
本研究は,適応整形推論(ACI)の望ましい性質が整形予測器(CP)の使用を必要としないことを示す。
非互換信頼予測器(NCCP)の非交換データに対するACI使用時のCPに対する性能を実証的に検討した。
論文 参考訳(メタデータ) (2024-09-23T21:02:33Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - A novel Deep Learning approach for one-step Conformal Prediction
approximation [0.7646713951724009]
Conformal Prediction (CP) は、最小限の制約を与えられた最大エラー率を保証する汎用的なソリューションである。
本稿では,従来の2ステップCPアプローチを1ステップで近似する新しい共形損失関数を提案する。
論文 参考訳(メタデータ) (2022-07-25T17:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。