論文の概要: A Conformal Predictive Measure for Assessing Catastrophic Forgetting
- arxiv url: http://arxiv.org/abs/2505.10677v1
- Date: Thu, 15 May 2025 19:42:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.474258
- Title: A Conformal Predictive Measure for Assessing Catastrophic Forgetting
- Title(参考訳): カタストロフィックフォーミングの評価のためのコンフォーマル予測尺度
- Authors: Ioannis Pitsiorlas, Nour Jamoussi, Marios Kountouris,
- Abstract要約: 本研究は,連続学習における破滅的忘れ (CF) の評価手法を紹介する。
CPCF(Conformal Prediction Confidence Factor)と呼ばれる新しい共形予測基準を提案する。
- 参考スコア(独自算出の注目度): 6.574808513848414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces a novel methodology for assessing catastrophic forgetting (CF) in continual learning. We propose a new conformal prediction (CP)-based metric, termed the Conformal Prediction Confidence Factor (CPCF), to quantify and evaluate CF effectively. Our framework leverages adaptive CP to estimate forgetting by monitoring the model's confidence on previously learned tasks. This approach provides a dynamic and practical solution for monitoring and measuring CF of previous tasks as new ones are introduced, offering greater suitability for real-world applications. Experimental results on four benchmark datasets demonstrate a strong correlation between CPCF and the accuracy of previous tasks, validating the reliability and interpretability of the proposed metric. Our results highlight the potential of CPCF as a robust and effective tool for assessing and understanding CF in dynamic learning environments.
- Abstract(参考訳): 本研究は,連続学習における破滅的忘れ (CF) の評価手法を紹介する。
そこで本研究では,CPCF(Conformal Prediction Confidence Factor, Conformal Prediction Confidence Factor, Conformal Prediction Confidence Factor, CPCF)と呼ばれる新しいコンフォメーション予測法を提案する。
我々のフレームワークは、適応CPを利用して、以前に学習したタスクに対するモデルの信頼度を監視して、忘れを見積もる。
このアプローチは、新しいタスクが導入されるにつれて、以前のタスクのCFを監視し、測定するための動的で実用的なソリューションを提供する。
4つのベンチマークデータセットの実験結果は、CPCFと過去のタスクの精度との間に強い相関関係を示し、提案したメトリクスの信頼性と解釈可能性を検証する。
この結果から,動的学習環境におけるCFの評価と理解のための頑健で効果的なツールとしてのCPCFの可能性を強調した。
関連論文リスト
- From predictions to confidence intervals: an empirical study of conformal prediction methods for in-context learning [4.758643223243787]
本稿では,共形予測に基づく予測区間の構築手法を提案する。
従来のコンフォメーション法はモデルフィッティングの繰り返しによる計算コストが高いが,ICLを利用して1回のフォワードパスで信頼区間を効率よく生成する。
我々の実証分析は、リッジ回帰に基づくコンフォメーション手法に対するこのアプローチと比較し、インコンテキスト学習(CP with ICL)によるコンフォメーション予測が、堅牢でスケーラブルな不確実性推定を実現することを示す。
論文 参考訳(メタデータ) (2025-04-22T09:11:48Z) - Conformal Risk Minimization with Variance Reduction [37.74931189657469]
コンフォーマル予測(CP)は、ブラックボックスモデルにおける確率的保証を達成するための分布自由フレームワークである。
最近の研究は、トレーニング中のCP効率の最適化に重点を置いている。
我々は、この概念を共形リスク最小化の問題として定式化する。
論文 参考訳(メタデータ) (2024-11-03T21:48:15Z) - Top-K Pairwise Ranking: Bridging the Gap Among Ranking-Based Measures for Multi-Label Classification [120.37051160567277]
本稿では,Top-K Pairwise Ranking(TKPR)という新しい尺度を提案する。
一連の分析により、TKPRは既存のランキングベースの尺度と互換性があることが示されている。
一方,データ依存縮約法という新しい手法に基づいて,提案手法の急激な一般化を確立する。
論文 参考訳(メタデータ) (2024-07-09T09:36:37Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Confidence Estimation via Auxiliary Models [47.08749569008467]
モデル信頼のための新しいターゲット基準、すなわち真のクラス確率(TCP)を紹介します。
標準最大クラス確率 (MCP) よりも TCP が信頼度推定に優れた特性を提供することを示す。
論文 参考訳(メタデータ) (2020-12-11T17:21:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。