論文の概要: Limitations of Using Identical Distributions for Training and Testing When Learning Boolean Functions
- arxiv url: http://arxiv.org/abs/2512.00791v2
- Date: Tue, 02 Dec 2025 10:04:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 14:50:32.080902
- Title: Limitations of Using Identical Distributions for Training and Testing When Learning Boolean Functions
- Title(参考訳): ブール関数学習時の訓練・試験における固有分布の利用限界
- Authors: Jordi Pérez-Guijarro,
- Abstract要約: 学習者がトレーニング分布に最適に適応することが許された場合、トレーニング分布がテスト分布と同一であるのが常に最適かどうかを検討する。
また、対象関数に一定の規則性が課される場合、一様分布の場合、標準結論が回復されることを示す。
- 参考スコア(独自算出の注目度): 1.3537117504260623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When the distributions of the training and test data do not coincide, the problem of understanding generalization becomes considerably more complex, prompting a variety of questions. Prior work has shown that, for some fixed learning methods, there are scenarios where training on a distribution different from the test distribution improves generalization. However, these results do not account for the possibility of choosing, for each training distribution, the optimal learning algorithm, leaving open whether the observed benefits stem from the mismatch itself or from suboptimality of the learner. In this work, we address this question in full generality. That is, we study whether it is always optimal for the training distribution to be identical to the test distribution when the learner is allowed to be optimally adapted to the training distribution. Surprisingly, assuming the existence of one-way functions, we find that the answer is no. That is, matching distributions is not always the best scenario. Nonetheless, we also show that when certain regularities are imposed on the target functions, the standard conclusion is recovered in the case of the uniform distribution.
- Abstract(参考訳): トレーニングデータとテストデータの分布が一致しない場合、一般化を理解する問題はより複雑になり、様々な疑問が提起される。
以前の研究によると、いくつかの固定的な学習手法では、テストディストリビューションとは異なるディストリビューションでのトレーニングが一般化を改善するシナリオが存在する。
しかし,これらの結果は,学習者のミスマッチ自体に起因するか,あるいは学習者の過小評価から得られるかに関わらず,最適な学習アルゴリズムを選択する可能性を考慮していない。
この研究では、この問題を完全な一般性で解決する。
すなわち、学習者がトレーニング分布に最適に適応することが許された場合、トレーニング分布がテスト分布と同一であるのが常に最適かどうかを検討する。
驚くべきことに、一方関数の存在を仮定すると、答えはノーであることが分かる。
つまり、分布の一致が必ずしも最良のシナリオであるとは限らない。
それにもかかわらず、対象関数に一定の規則性が課された場合、一様分布の場合、標準結論が回復されることも示している。
関連論文リスト
- Exponentially Consistent Statistical Classification of Continuous Sequences with Distribution Uncertainty [9.017367466798312]
分布不確実性を伴う連続配列の多重分類について検討する。
本研究では, 分布自由試験を提案し, 3つの異なる試験設計において, 誤差確率が指数関数的に速く減衰することを証明する。
論文 参考訳(メタデータ) (2024-10-29T07:06:40Z) - Generalizing to any diverse distribution: uniformity, gentle finetuning and rebalancing [55.791818510796645]
我々は,訓練データから大きく逸脱した場合でも,様々なテスト分布によく適応するモデルを開発することを目的としている。
ドメイン適応、ドメイン一般化、ロバスト最適化といった様々なアプローチは、アウト・オブ・ディストリビューションの課題に対処しようと試みている。
我々は、既知のドメイン内の十分に多様なテスト分布にまたがる最悪のケースエラーを考慮することで、より保守的な視点を採用する。
論文 参考訳(メタデータ) (2024-10-08T12:26:48Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Any-Shift Prompting for Generalization over Distributions [66.29237565901734]
即時学習におけるトレーニングとテスト分布の関係を考察する一般的な確率的推論フレームワークである「任意のシフトプロンプト」を提案する。
このフレームワーク内では、テストプロンプトが分散関係を利用して、CLIPイメージ言語モデルのトレーニングからテストディストリビューションへの一般化を導く。
ネットワークは、トレーニング情報とテスト情報の両方をフィードフォワードパスに組み込んだ調整されたテストプロンプトを生成し、テスト時の追加のトレーニングコストを回避する。
論文 参考訳(メタデータ) (2024-02-15T16:53:42Z) - Testing for Overfitting [0.0]
オーバーフィッティング問題について議論し、トレーニングデータによる評価に標準値と集中値が成立しない理由を説明する。
本稿では,モデルの性能をトレーニングデータを用いて評価できる仮説テストを紹介し,議論する。
論文 参考訳(メタデータ) (2023-05-09T22:49:55Z) - Exploring Generalization Ability of Pretrained Language Models on
Arithmetic and Logical Reasoning [8.879537068017367]
プレトレーニング言語モデル(PLM)の一般化能力について検討する。
我々は,最も先進的で一般公開された PLM - BART の1つについて実験を行った。
本研究は, 分布が同じ場合, PLM は容易に一般化できることを示したが, 分布から一般化することは依然として困難である。
論文 参考訳(メタデータ) (2021-08-15T13:42:10Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。