論文の概要: Monotone Learning
- arxiv url: http://arxiv.org/abs/2202.05246v3
- Date: Mon, 6 Nov 2023 18:58:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 02:07:43.379838
- Title: Monotone Learning
- Title(参考訳): モノトーン学習
- Authors: Olivier Bousquet and Amit Daniely and Haim Kaplan and Yishay Mansour
and Shay Moran and Uri Stemmer
- Abstract要約: 各学習アルゴリズムAは、同様の性能で単調なクラスに変換可能であることを示す。
これは、パフォーマンスを損なうことなく、確実に非単調な振る舞いを回避できることを示している。
- 参考スコア(独自算出の注目度): 86.77705135626186
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The amount of training-data is one of the key factors which determines the
generalization capacity of learning algorithms. Intuitively, one expects the
error rate to decrease as the amount of training-data increases. Perhaps
surprisingly, natural attempts to formalize this intuition give rise to
interesting and challenging mathematical questions. For example, in their
classical book on pattern recognition, Devroye, Gyorfi, and Lugosi (1996) ask
whether there exists a {monotone} Bayes-consistent algorithm. This question
remained open for over 25 years, until recently Pestov (2021) resolved it for
binary classification, using an intricate construction of a monotone
Bayes-consistent algorithm.
We derive a general result in multiclass classification, showing that every
learning algorithm A can be transformed to a monotone one with similar
performance. Further, the transformation is efficient and only uses a black-box
oracle access to A. This demonstrates that one can provably avoid non-monotonic
behaviour without compromising performance, thus answering questions asked by
Devroye et al (1996), Viering, Mey, and Loog (2019), Viering and Loog (2021),
and by Mhammedi (2021).
Our transformation readily implies monotone learners in a variety of
contexts: for example it extends Pestov's result to classification tasks with
an arbitrary number of labels. This is in contrast with Pestov's work which is
tailored to binary classification.
In addition, we provide uniform bounds on the error of the monotone
algorithm. This makes our transformation applicable in distribution-free
settings. For example, in PAC learning it implies that every learnable class
admits a monotone PAC learner. This resolves questions by Viering, Mey, and
Loog (2019); Viering and Loog (2021); Mhammedi (2021).
- Abstract(参考訳): 学習データの量は,学習アルゴリズムの一般化能力を決定する重要な要因の1つである。
直感的には、トレーニングデータの増加に伴ってエラー率が低下すると予想する。
おそらく意外なことに、この直観を形式化しようとする自然な試みは、興味深く挑戦的な数学的問題を引き起こす。
例えば、パターン認識に関する古典的な本では、devroye, gyorfi, lugosi (1996) が {monotone} bayes- consistent algorithm が存在するかどうかを問うている。
この問題はペストフ(2021年)が単調ベイズ整合アルゴリズムの複雑な構成を用いて二進分類を解くまで、25年以上にわたって解き放たれていた。
各学習アルゴリズムAは、類似した性能を持つ単調な学習アルゴリズムAに変換可能であることを示す。
これにより、Devroye et al (1996), Viering, Mey, and Loog (2019), Viering and Loog (2021), Mhammedi (2021), の質問に答えることができる。
この変換は、様々な文脈で単調学習者を意味する:例えば、ペストフの結果を任意の数のラベルで分類するタスクへと拡張する。
これは二分分類に合わせたペストフの仕事とは対照的である。
さらに,モノトーンアルゴリズムの誤差について一様境界を与える。
これにより、我々の変換は分散のない設定に適用できる。
例えば、pac学習では、すべての学習可能なクラスが単調pac学習者を受け入れることを意味する。
これは、Viering, Mey, and Loog (2019)、Viering and Loog (2021)、Mhammedi (2021)によって解決される。
関連論文リスト
- Machine Unlearning in Forgettability Sequence [22.497699136603877]
未学習の難易度と未学習アルゴリズムの性能に影響を及ぼす要因を同定する。
本稿では,RankingモジュールとSeqUnlearnモジュールからなる一般の未学習フレームワーク RSU を提案する。
論文 参考訳(メタデータ) (2024-10-09T01:12:07Z) - User-Level Differential Privacy With Few Examples Per User [73.81862394073308]
サンプルスカース方式では,各ユーザが少数のサンプルしか持たないため,以下の結果が得られる。
近似DPについては,任意の項目レベルDPアルゴリズムをユーザレベルDPアルゴリズムに汎用変換する。
ユーザレベル設定に指数的機構(McSherry, Talwar FOCS 2007)を適用するための簡単な手法を提案する。
論文 参考訳(メタデータ) (2023-09-21T21:51:55Z) - A General Framework for Sequential Decision-Making under Adaptivity
Constraints [112.79808969568253]
適応性制約(まれなポリシースイッチ)とバッチ学習(バッチ学習)という2つの制約の下で、一般的なシーケンシャルな意思決定について検討する。
稀なポリシースイッチの制約に対して、バッチ数で$widetildemathcalO(sqrtK+K/B)$ regretを達成するアルゴリズムを提供する。
バッチ学習制約に対して、バッチ数で$widetildemathcalO(sqrtK+K/B)$ regretを提供するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-06-26T07:20:25Z) - Byzantine-Resilient Learning Beyond Gradients: Distributing Evolutionary
Search [6.461473289206789]
本研究では、勾配のないMLアルゴリズムと古典的な分散コンセンサスアルゴリズムを組み合わせることで、勾配のないビザンチン耐性分散学習アルゴリズムを生成することを示す。
我々は,2つの特定の事例,すなわちTotal Order Broadcast と proof-of-work leader election に対して,証明と疑似コードを提供する。
論文 参考訳(メタデータ) (2023-04-20T17:13:29Z) - Agnostic Multi-Robust Learning Using ERM [19.313739782029185]
頑健な学習における根本的な問題は非対称性である: 学習者は指数関数的に多くの摂動の全てを正しく分類する必要がある。
これとは対照的に、攻撃者は1つの摂動を成功させる必要がある。
本稿では,新しいマルチグループ設定を導入し,新しいマルチロバスト学習問題を提案する。
論文 参考訳(メタデータ) (2023-03-15T21:30:14Z) - Variance-Dependent Regret Bounds for Linear Bandits and Reinforcement
Learning: Adaptivity and Computational Efficiency [90.40062452292091]
本稿では,不整合雑音を持つ線形帯域に対する計算効率のよい最初のアルゴリズムを提案する。
我々のアルゴリズムは未知のノイズの分散に適応し、$tildeO(d sqrtsum_k = 1K sigma_k2 + d)$ regretを達成する。
また、強化学習において、線形混合マルコフ決定過程(MDP)に対する分散適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T00:17:24Z) - Iterative Weak Learnability and Multi-Class AdaBoost [0.0]
SAMMEに触発されたマルチクラス分類問題に対する効率的なアンサンブルアルゴリズムを構築する。
SAMMEとは対照的に、アルゴリズムの最終仮説は確率1の正しいラベルに収束する。
サンプルサイズのみに依存する訓練誤差と追加項の和は,適応ブースティングアルゴリズムとしてアルゴリズムの一般化誤差を限定する。
論文 参考訳(メタデータ) (2021-01-26T03:30:30Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Prob2Vec: Mathematical Semantic Embedding for Problem Retrieval in
Adaptive Tutoring [4.230510356675453]
人間が十分なトレーニングセットで一致した類似度スコアを決定するのは難しい。
本稿では,抽象化と組込みステップからなる階層型問題埋め込みアルゴリズムProb2Vecを提案する。
Prob2Vec 96.88%の精度で問題類似性テストを行った。
論文 参考訳(メタデータ) (2020-03-21T00:16:14Z) - Adversarial Online Learning with Changing Action Sets: Efficient
Algorithms with Approximate Regret Bounds [48.312484940846]
睡眠の専門家やバンドイットによるオンライン学習の問題を再考する。
各タイムステップにおいて、アルゴリズムが選択できるアクションのサブセットのみが利用可能である。
我々は、一般的な睡眠専門家/バンド問題に対して、アポキシマ-レグレット保証を提供するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-03-07T02:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。