論文の概要: Machine Learning. The Science of Selection under Uncertainty
- arxiv url: http://arxiv.org/abs/2509.21547v1
- Date: Thu, 25 Sep 2025 20:33:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.989617
- Title: Machine Learning. The Science of Selection under Uncertainty
- Title(参考訳): 不確かさ下における選択の科学
- Authors: Yevgeny Seldin,
- Abstract要約: この本は、不確実性の下での選択結果に関する理論的保証を得るための統計ツールを提供する。
この本は、マルコフ、チェビシェフ、ホーフディング、バーンスタイン、経験的バーンスタイン、kl、スプリット-klなど、幅広い不平等をカバーしている。
本稿では, 環境フィードバック, 環境抵抗, 構造複雑性を特徴とするオンライン学習問題の空間について述べる。
- 参考スコア(独自算出の注目度): 9.594432031144718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning, whether natural or artificial, is a process of selection. It starts with a set of candidate options and selects the more successful ones. In the case of machine learning the selection is done based on empirical estimates of prediction accuracy of candidate prediction rules on some data. Due to randomness of data sampling the empirical estimates are inherently noisy, leading to selection under uncertainty. The book provides statistical tools to obtain theoretical guarantees on the outcome of selection under uncertainty. We start with concentration of measure inequalities, which are the main statistical instrument for controlling how much an empirical estimate of expectation of a function deviates from the true expectation. The book covers a broad range of inequalities, including Markov's, Chebyshev's, Hoeffding's, Bernstein's, Empirical Bernstein's, Unexpected Bernstein's, kl, and split-kl. We then study the classical (offline) supervised learning and provide a range of tools for deriving generalization bounds, including Occam's razor, Vapnik-Chervonenkis analysis, and PAC-Bayesian analysis. The latter is further applied to derive generalization guarantees for weighted majority votes. After covering the offline setting, we turn our attention to online learning. We present the space of online learning problems characterized by environmental feedback, environmental resistance, and structural complexity. A common performance measure in online learning is regret, which compares performance of an algorithm to performance of the best prediction rule in hindsight, out of a restricted set of prediction rules. We present tools for deriving regret bounds in stochastic and adversarial environments, and under full information and bandit feedback.
- Abstract(参考訳): 自然であれ人工であれ、学習は選択の過程である。
一連の候補オプションから始まり、より成功したオプションを選択する。
機械学習の場合、いくつかのデータ上で候補予測規則の予測精度の実証的な推定に基づいて選択を行う。
データサンプリングのランダム性のため、経験的推定は本質的にノイズがあり、不確実性の下での選択につながる。
この本は、不確実性の下での選択結果に関する理論的保証を得るための統計ツールを提供する。
まず、関数の期待値が真の期待値からどれだけ逸脱するかを測る主要な統計指標である測度不等式(英語版)の集中から始める。
この本は、マルコフ、チェビシェフ、ホーフディング、ベルンシュタイン、経験的ベルンシュタイン、未発見ベルンシュタイン、kl、スプリット-klを含む幅広い不等式をカバーしている。
次に、古典的(オフライン)教師付き学習を研究し、Occam's razor、Vapnik-Chervonenkis分析、PAC-Bayesian解析など、一般化境界を導出するための様々なツールを提供する。
後者は、重み付けされた多数決に対する一般化の保証を導出するためにさらに適用される。
オフライン設定をカバーした後、オンライン学習に注意を向けます。
本稿では, 環境フィードバック, 環境抵抗, 構造複雑性を特徴とするオンライン学習問題の空間について述べる。
オンライン学習における一般的なパフォーマンス指標は後悔であり、アルゴリズムのパフォーマンスを、制約された予測規則のセットから、後見の最良の予測規則のパフォーマンスと比較する。
本稿では, 確率的, 敵対的環境における後悔境界の導出と, 完全な情報と包帯的フィードバックの両面から, 後悔境界を導出するためのツールを提案する。
関連論文リスト
- A Principled Approach to Randomized Selection under Uncertainty: Applications to Peer Review and Grant Funding [68.43987626137512]
本稿では,各項目の品質の間隔推定に基づくランダム化意思決定の枠組みを提案する。
最適化に基づく最適化手法であるMERITを導入する。
MERITが既存のアプローチで保証されていない望ましい公理特性を満たすことを証明している。
論文 参考訳(メタデータ) (2025-06-23T19:59:30Z) - Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Partial-Label Learning with a Reject Option [3.1201323892302444]
提案手法は,リジェクションオプション付き最寄りのラベル付き部分ラベル学習アルゴリズムを提案する。
提案手法は,非退行予測の数値と精度の最良のトレードオフを提供する。
リジェクションオプションなしで評価すると、最寄りのアプローチも競合予測性能を達成する。
論文 参考訳(メタデータ) (2024-02-01T13:41:44Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Selective Prediction via Training Dynamics [31.708701583736644]
本研究では,モデルのトレーニング力学を学習することで,最先端の選択的予測性能が得られることを示す。
特に、トレーニングの後半段階で最終予測と大差ないデータポイントを拒否する。
提案された拒絶機構はドメインに依存しない(すなわち、離散予測と実数値予測の両方に有効)、既存の選択的予測手法と柔軟に組み合わせることができる。
論文 参考訳(メタデータ) (2022-05-26T17:51:29Z) - Distribution-Free, Risk-Controlling Prediction Sets [112.9186453405701]
ユーザ特定レベルにおける将来のテストポイントにおける期待損失を制御するブラックボックス予測器から設定値予測を生成する方法を示す。
提案手法は,予測セットのサイズをキャリブレーションするホールドアウトセットを用いて,任意のデータセットに対して明確な有限サンプル保証を提供する。
論文 参考訳(メタデータ) (2021-01-07T18:59:33Z) - A framework for predicting, interpreting, and improving Learning
Outcomes [0.0]
本研究では,学生の観察的,行動的,受験的特徴に基づいて,テストスコアを予測するEmbibe Score Quotient Model(ESQ)を開発した。
ESQは、学生の将来的な採点可能性の予測や、個別の学習ナッジの提供に使用することができる。
論文 参考訳(メタデータ) (2020-10-06T11:22:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。