論文の概要: Limitations of Using Identical Distributions for Training and Testing When Learning Boolean Functions
- arxiv url: http://arxiv.org/abs/2512.00791v2
- Date: Tue, 02 Dec 2025 10:04:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 14:50:32.080902
- Title: Limitations of Using Identical Distributions for Training and Testing When Learning Boolean Functions
- Title(参考訳): ブール関数学習時の訓練・試験における固有分布の利用限界
- Authors: Jordi Pérez-Guijarro,
- Abstract要約: 学習者がトレーニング分布に最適に適応することが許された場合、トレーニング分布がテスト分布と同一であるのが常に最適かどうかを検討する。
また、対象関数に一定の規則性が課される場合、一様分布の場合、標準結論が回復されることを示す。
- 参考スコア(独自算出の注目度): 1.3537117504260623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When the distributions of the training and test data do not coincide, the problem of understanding generalization becomes considerably more complex, prompting a variety of questions. Prior work has shown that, for some fixed learning methods, there are scenarios where training on a distribution different from the test distribution improves generalization. However, these results do not account for the possibility of choosing, for each training distribution, the optimal learning algorithm, leaving open whether the observed benefits stem from the mismatch itself or from suboptimality of the learner. In this work, we address this question in full generality. That is, we study whether it is always optimal for the training distribution to be identical to the test distribution when the learner is allowed to be optimally adapted to the training distribution. Surprisingly, assuming the existence of one-way functions, we find that the answer is no. That is, matching distributions is not always the best scenario. Nonetheless, we also show that when certain regularities are imposed on the target functions, the standard conclusion is recovered in the case of the uniform distribution.
- Abstract(参考訳): トレーニングデータとテストデータの分布が一致しない場合、一般化を理解する問題はより複雑になり、様々な疑問が提起される。
以前の研究によると、いくつかの固定的な学習手法では、テストディストリビューションとは異なるディストリビューションでのトレーニングが一般化を改善するシナリオが存在する。
しかし,これらの結果は,学習者のミスマッチ自体に起因するか,あるいは学習者の過小評価から得られるかに関わらず,最適な学習アルゴリズムを選択する可能性を考慮していない。
この研究では、この問題を完全な一般性で解決する。
すなわち、学習者がトレーニング分布に最適に適応することが許された場合、トレーニング分布がテスト分布と同一であるのが常に最適かどうかを検討する。
驚くべきことに、一方関数の存在を仮定すると、答えはノーであることが分かる。
つまり、分布の一致が必ずしも最良のシナリオであるとは限らない。
それにもかかわらず、対象関数に一定の規則性が課された場合、一様分布の場合、標準結論が回復されることも示している。
関連論文リスト
- On Training-Test (Mis)alignment in Unsupervised Combinatorial Optimization: Observation, Empirical Exploration, and Analysis [25.69187509653635]
教師なし最適化(UCO)では、トレーニング中に各トレーニングインスタンスに対して確率論的に期待できる連続的な決定を行うことを目的としている。
トレーニングにデランドマイゼーションの異なるバージョンを含めることで、UCOにおけるトレーニングとテストの整合性を改善するための予備的なアイデアを探求する。
私たちの経験的調査は、このようなアイデアが実際にトレーニングとテストのアライメントを改善するだけでなく、トレーニングに非自明な課題をもたらすことを示している。
論文 参考訳(メタデータ) (2025-06-20T04:05:09Z) - Exponentially Consistent Statistical Classification of Continuous Sequences with Distribution Uncertainty [9.017367466798312]
分布不確実性を伴う連続配列の多重分類について検討する。
本研究では, 分布自由試験を提案し, 3つの異なる試験設計において, 誤差確率が指数関数的に速く減衰することを証明する。
論文 参考訳(メタデータ) (2024-10-29T07:06:40Z) - Generalizing to any diverse distribution: uniformity, gentle finetuning and rebalancing [55.791818510796645]
我々は,訓練データから大きく逸脱した場合でも,様々なテスト分布によく適応するモデルを開発することを目的としている。
ドメイン適応、ドメイン一般化、ロバスト最適化といった様々なアプローチは、アウト・オブ・ディストリビューションの課題に対処しようと試みている。
我々は、既知のドメイン内の十分に多様なテスト分布にまたがる最悪のケースエラーを考慮することで、より保守的な視点を採用する。
論文 参考訳(メタデータ) (2024-10-08T12:26:48Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Any-Shift Prompting for Generalization over Distributions [66.29237565901734]
即時学習におけるトレーニングとテスト分布の関係を考察する一般的な確率的推論フレームワークである「任意のシフトプロンプト」を提案する。
このフレームワーク内では、テストプロンプトが分散関係を利用して、CLIPイメージ言語モデルのトレーニングからテストディストリビューションへの一般化を導く。
ネットワークは、トレーニング情報とテスト情報の両方をフィードフォワードパスに組み込んだ調整されたテストプロンプトを生成し、テスト時の追加のトレーニングコストを回避する。
論文 参考訳(メタデータ) (2024-02-15T16:53:42Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Testing for Overfitting [0.0]
オーバーフィッティング問題について議論し、トレーニングデータによる評価に標準値と集中値が成立しない理由を説明する。
本稿では,モデルの性能をトレーニングデータを用いて評価できる仮説テストを紹介し,議論する。
論文 参考訳(メタデータ) (2023-05-09T22:49:55Z) - Minimax Regret Optimization for Robust Machine Learning under
Distribution Shift [38.30154154957721]
未知のテスト分布下で学習モデルを評価した場合の学習シナリオを考察する。
DROの定式化は分布シフト時の一様に小さな後悔を保証しないことを示す。
ミニマックス回帰最適化 (Minimax Regret Optimization, MRO) という代替手法を提案する。
論文 参考訳(メタデータ) (2022-02-11T04:17:22Z) - Exploring Generalization Ability of Pretrained Language Models on
Arithmetic and Logical Reasoning [8.879537068017367]
プレトレーニング言語モデル(PLM)の一般化能力について検討する。
我々は,最も先進的で一般公開された PLM - BART の1つについて実験を行った。
本研究は, 分布が同じ場合, PLM は容易に一般化できることを示したが, 分布から一般化することは依然として困難である。
論文 参考訳(メタデータ) (2021-08-15T13:42:10Z) - Test-Agnostic Long-Tailed Recognition by Test-Time Aggregating Diverse
Experts with Self-Supervision [85.07855130048951]
本研究では,テスト非依存型ロングテール認識(test-agnostic long-tailed recognition)と呼ばれる,より実践的なタスク設定について検討する。
本稿では,多種多様な専門家に異なるテスト分布を扱うように訓練するTADE(Test-time Aggregating Diverse Experts)と呼ばれる新しい手法を提案する。
理論的には,提案手法は未知のテストクラス分布をシミュレートできることを示す。
論文 参考訳(メタデータ) (2021-07-20T04:10:31Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。