論文の概要: Guess-and-Learn (G&L): Measuring the Cumulative Error Cost of Cold-Start Adaptation
- arxiv url: http://arxiv.org/abs/2508.21270v1
- Date: Fri, 29 Aug 2025 00:13:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.905214
- Title: Guess-and-Learn (G&L): Measuring the Cumulative Error Cost of Cold-Start Adaptation
- Title(参考訳): Guess-and-Learn(G&L):コールドスタート適応の累積誤差コストの測定
- Authors: Roland Arnold,
- Abstract要約: 機械学習モデルの評価は、スクラッチから学習中に発生する累積誤差の適応コストを見越して、最終的な精度を強調するのが一般的である。
Guess-and- Learn (G&L) v1.0は、コールドスタート適応性を測定することで、このギャップに対処する。
- 参考スコア(独自算出の注目度): 0.11102988539107704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluation of machine learning models typically emphasizes final accuracy, overlooking the cost of adaptation: the cumulative errors incurred while learning from scratch. Guess-and- Learn (G&L) v1.0 addresses this gap by measuring cold-start adaptability - the total mistakes a model makes while sequentially labeling an unlabeled dataset. At each step, the learner selects an instance, predicts its label, receives the ground truth, and updates parameters under either online (per-sample) or batch (delayed) mode. The resulting error trajectory exposes adaptation speed, selection quality, and bias - dynamics invisible to endpoint metrics. G&L defines four tracks (Scratch/Pretrained $\times$ Online/Batch) to disentangle the effects of initialization and update frequency. We formalize the protocol, relate it to classical mistake-bound theory, and estimate a heuristic "oracle reference band" for MNIST as a plausibility reference. Baseline experiments on MNIST and AG News, spanning classical methods (Perceptron, k-NN), convolutional architectures (CNN, ResNet-50), and pretrained transformers (ViT-B/16, BERT-base), reveal systematic differences in early-phase efficiency: smaller models can adapt with fewer initial errors, while pretraining benefits vary by domain. Across settings, current models remain well above the oracle band, highlighting an adaptability gap. By quantifying the mistake cost of early learning, G&L complements conventional benchmarks and provides a reproducible framework for developing learners that are not only accurate in the limit but also reliable from the first examples.
- Abstract(参考訳): 機械学習モデルの評価は通常、最終的な精度を強調し、適応のコストを見越す。
Guess-and- Learn (G&L) v1.0は、コールドスタート適応性を測定することで、このギャップに対処する。
各ステップで、学習者はインスタンスを選択し、ラベルを予測し、真理を受信し、オンライン(サンプル毎)モードまたはバッチ(遅延)モードでパラメータを更新する。
結果として生じるエラートラジェクトリは、適応速度、選択品質、バイアスを公開します。
G&Lは4つのトラック(Scratch/Pretrained $\times$ Online/Batch)を定義している。
我々はこのプロトコルを定式化し、古典的ミスバウンド理論に関連付け、MNISTのヒューリスティックな「オークル参照バンド」を妥当性基準として推定する。
MNISTとAG Newsのベースライン実験では、古典的手法(Perceptron、k-NN)、畳み込みアーキテクチャ(CNN、ResNet-50)、事前訓練されたトランスフォーマー(ViT-B/16、BERT-base)にまたがって、初期段階の効率の体系的な違いを明らかにしている。
設定全体では、現在のモデルはオラクルバンドのかなり上にあり、適応性のギャップを浮き彫りにしている。
早期学習の誤りコストを定量化することにより、G&Lは従来のベンチマークを補完し、学習者の限界だけでなく、最初の例からも信頼性の高い再現可能なフレームワークを提供する。
関連論文リスト
- ASAP: Unsupervised Post-training with Label Distribution Shift Adaptive Learning Rate [3.187381965457262]
ASAPは、現在の出力と以前の出力の間の余剰距離を計算し、それを有界範囲にマッピングすることで学習率を調整する。
実験により、ASAPは精度と効率を一貫して改善し、教師なしモデル適応に実用的であることが示された。
論文 参考訳(メタデータ) (2025-08-19T01:59:24Z) - Rethinking Early Stopping: Refine, Then Calibrate [49.966899634962374]
キャリブレーション・リファインメント分解の新規な変分定式化について述べる。
我々は,校正誤差と精錬誤差が訓練中に同時に最小化されないという理論的,実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-01-31T15:03:54Z) - Parameter-tuning-free data entry error unlearning with adaptive
selective synaptic dampening [51.34904967046097]
本稿では,パラメータチューニングの必要性を排除した選択的シナプス減衰アンラーニング法の拡張を提案する。
本稿では,ResNet18とVision Transformerの未学習タスクにおける適応選択的シナプス減衰(ASSD)の性能を示す。
このアプローチの適用は、サプライチェーン管理などの産業環境において特に魅力的である。
論文 参考訳(メタデータ) (2024-02-06T14:04:31Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Calibrated One-class Classification for Unsupervised Time Series Anomaly Detection [27.15951068292889]
本稿では,異常検出のための一級分類を提案する。
データの正規性の汚染耐性、異常なインフォームド学習を実現する。
我々のモデルは16人の最先端の競争者に対して大幅な改善を達成している。
論文 参考訳(メタデータ) (2022-07-25T13:43:13Z) - Learning to Learn to Demodulate with Uncertainty Quantification via
Bayesian Meta-Learning [59.014197664747165]
本稿では, よく校正された数パイロット復調器の取得を目的とした変分推論によるベイズ的メタラーニングについて紹介する。
その結果得られたベイズアンサンブルは、復調のためにニューラルネットワークの複数のインスタンスを実行する計算コストにおいて、より良い校正されたソフトな決定を提供する。
論文 参考訳(メタデータ) (2021-08-02T11:07:46Z) - Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese
Grammatical Error Correction [49.25830718574892]
本稿では,Tail-to-Tail (textbfTtT) という新しいフレームワークを提案する。
ほとんどのトークンが正しいので、ソースからターゲットに直接転送でき、エラー位置を推定して修正することができる。
標準データセット、特に可変長データセットに関する実験結果は、文レベルの精度、精度、リコール、F1-Measureの観点からTtTの有効性を示す。
論文 参考訳(メタデータ) (2021-06-03T05:56:57Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。