論文の概要: Optimizing In-Context Learning for Efficient Full Conformal Prediction
- arxiv url: http://arxiv.org/abs/2509.01840v2
- Date: Sat, 06 Sep 2025 15:24:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 12:02:46.910816
- Title: Optimizing In-Context Learning for Efficient Full Conformal Prediction
- Title(参考訳): 効率的な完全等角予測のための文脈内学習の最適化
- Authors: Weicao Deng, Sangwoo Park, Min Li, Osvaldo Simeone,
- Abstract要約: Conformal Prediction (CP) は、分布のないカバレッジを保証する予測セットを提供する。
メタラーニングやインコンテキストラーニング(ICL)に基づく最近のアプローチは、欠点を部分的に軽減している。
本稿では,ICCをベースとした拡張FCP(E-ICL+FCP)と呼ばれる効率的なFCPフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.112458991655856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable uncertainty quantification is critical for trustworthy AI. Conformal Prediction (CP) provides prediction sets with distribution-free coverage guarantees, but its two main variants face complementary limitations. Split CP (SCP) suffers from data inefficiency due to dataset partitioning, while full CP (FCP) improves data efficiency at the cost of prohibitive retraining complexity. Recent approaches based on meta-learning or in-context learning (ICL) partially mitigate these drawbacks. However, they rely on training procedures not specifically tailored to CP, which may yield large prediction sets. We introduce an efficient FCP framework, termed enhanced ICL-based FCP (E-ICL+FCP), which employs a permutation-invariant Transformer-based ICL model trained with a CP-aware loss. By simulating the multiple retrained models required by FCP without actual retraining, E-ICL+FCP preserves coverage while markedly reducing both inefficiency and computational overhead. Experiments on synthetic and real tasks demonstrate that E-ICL+FCP attains superior efficiency-coverage trade-offs compared to existing SCP and FCP baselines.
- Abstract(参考訳): 信頼できる不確実性定量化は、信頼できるAIにとって重要である。
Conformal Prediction (CP)は、分布のないカバレッジ保証を備えた予測セットを提供するが、2つの主要な変種は相補的な制限に直面している。
Split CP (SCP) はデータセット分割によるデータ効率の低下に悩まされ、FCP (Full CP) はデータ効率を向上させる。
メタラーニングやインコンテキストラーニング(ICL)に基づく最近のアプローチは、これらの欠点を部分的に軽減している。
しかし、CPに特化していないトレーニング手順に依存しており、大きな予測セットが得られる可能性がある。
本稿では,ICCをベースとした拡張FCP(E-ICL+FCP)と呼ばれる効率的なFCPフレームワークを提案する。
E-ICL+FCPは、実際のリトレーニングなしでFCPが必要とする複数の再トレーニングモデルをシミュレートすることにより、カバー範囲を保ちながら、非効率性と計算オーバーヘッドを著しく低減する。
合成および実タスクの実験により、E-ICL+FCP は既存の SCP や FCP のベースラインと比較して効率・被覆トレードオフが優れていることが示された。
関連論文リスト
- Reliable Hierarchical Operating System Fingerprinting via Conformal Prediction [62.40452053128524]
コンフォーマル予測(CP)は、既存の手法にラップして、保証されたカバレッジで予測セットを得ることができる。
この研究は、2つの異なる構造化CP戦略を導入し評価することで、これらの制限に対処する。
どちらの手法も妥当性を保証するが、レベルワイド効率と構造的整合性の間には根本的なトレードオフがある。
論文 参考訳(メタデータ) (2026-02-13T11:20:48Z) - Rethinking the Trust Region in LLM Reinforcement Learning [72.25890308541334]
PPO(Proximal Policy Optimization)は、大規模言語モデル(LLM)のデファクト標準アルゴリズムとして機能する。
より原則的な制約でクリッピングを代用する多変量確率ポリシー最適化(DPPO)を提案する。
DPPOは既存の方法よりも優れたトレーニングと効率を実現し、RLベースの微調整のためのより堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2026-02-04T18:59:04Z) - Clipping-Free Policy Optimization for Large Language Models [30.663054788473598]
強化学習は、訓練後の大規模言語モデルの中心となっている。
支配的なアルゴリズムは、大規模に最適化問題を導入するためのクリッピング機構に依存しています。
本稿では,クリッピングを全変動ばらつき制約から導いた凸ペナルティに置き換えるクリッピング自由政策最適化を提案する。
論文 参考訳(メタデータ) (2026-01-30T10:32:37Z) - Breaking the Limits of Open-Weight CLIP: An Optimization Framework for Self-supervised Fine-tuning of CLIP [60.025820738301434]
TuneCLIPはCLIPモデルの自己教師型微調整フレームワークである。
モデルアーキテクチャとスケールをまたいだパフォーマンスを継続的に改善します。
SigLIP (ViT-B/16) のような主要なオープンウェイトモデルが増加し、ImageNetと関連するアウト・オブ・ディストリビューション・ベンチマークで最大で2.5%向上した。
論文 参考訳(メタデータ) (2026-01-14T20:38:36Z) - Iterative Refinement of Flow Policies in Probability Space for Online Reinforcement Learning [56.47948583452555]
固定ステップのEulerスキームによるフローマッチング推論プロセスの離散化は,最適輸送から変化するJordan-Kinderlehrer-Otto原理と整合する,というキーインサイトに基づいて,SWFP(Stepwise Flow Policy)フレームワークを紹介した。
SWFPは、大域的な流れを、プロキシメート分布間の小さな漸進的な変換の列に分解する。
この分解は、小さな流れブロックのカスケードを介して事前訓練された流れを微調整する効率的なアルゴリズムを導き、大きな利点をもたらす。
論文 参考訳(メタデータ) (2025-10-17T07:43:51Z) - PT$^2$-LLM: Post-Training Ternarization for Large Language Models [52.4629647715623]
大きな言語モデル(LLM)は、様々なタスクにまたがる印象的な機能を示しているが、その大きなメモリと計算能力は、デプロイメントを妨げている。
PT$2$-LLMを提案する。
その中核は2段精製パイプラインを備えた非対称3次量子化器である。
論文 参考訳(メタデータ) (2025-09-27T03:01:48Z) - To Theoretically Understand Transformer-Based In-Context Learning for Optimizing CSMA [16.004032609412445]
バイナリ指数バックオフ方式はWiFi 7で広く使われているが、動的チャネル環境下ではスループットが低下している。
最近のモデルベースアプローチは、既知のノード密度と固定されたノード密度の下でのバックオフ戦略を単純に最適化する。
本稿では、チャネルアクセスを最適化するためのトランスフォーマーベースのインコンテキスト学習(ICL)理論を初めて提案する。
論文 参考訳(メタデータ) (2025-07-31T23:31:23Z) - Truncated Proximal Policy Optimization [43.965892659920364]
Truncated Proximal Policy Optimization (T-PPO)は、ポリシー更新と長さ制限された応答生成を合理化することで、トレーニング効率を向上させる。
不完全な応答から導かれる利点推定のための拡張一般化アドバンテージ推定(EGAE)を提案する。
我々は,32Bベースモデルを用いたAIME 2024におけるT-PPOの有効性と有効性を示した。
論文 参考訳(メタデータ) (2025-06-18T01:21:38Z) - Constrain Alignment with Sparse Autoencoders [45.131670081186]
特徴レベルの制約付き優先度最適化は、安定性を確保しつつアライメントプロセスを簡素化するために設計された新しい手法である。
提案手法は、訓練されたスパースオートエンコーダで活性化されるスパース機能と、逐次KL分散の品質を用いて効率を向上する。
論文 参考訳(メタデータ) (2024-11-12T07:54:13Z) - Beyond Conformal Predictors: Adaptive Conformal Inference with Confidence Predictors [1.3812010983144802]
本研究は,適応整形推論(ACI)の望ましい性質が整形予測器(CP)の使用を必要としないことを示す。
非互換信頼予測器(NCCP)の非交換データに対するACI使用時のCPに対する性能を実証的に検討した。
論文 参考訳(メタデータ) (2024-09-23T21:02:33Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - A novel Deep Learning approach for one-step Conformal Prediction
approximation [0.7646713951724009]
Conformal Prediction (CP) は、最小限の制約を与えられた最大エラー率を保証する汎用的なソリューションである。
本稿では,従来の2ステップCPアプローチを1ステップで近似する新しい共形損失関数を提案する。
論文 参考訳(メタデータ) (2022-07-25T17:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。