論文の概要: Distribution Learnability and Robustness
- arxiv url: http://arxiv.org/abs/2406.17814v1
- Date: Tue, 25 Jun 2024 05:09:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 17:46:26.675133
- Title: Distribution Learnability and Robustness
- Title(参考訳): 分布学習性とロバスト性
- Authors: Shai Ben-David, Alex Bie, Gautam Kamath, Tosca Lechner,
- Abstract要約: 確率分布のクラスが実現可能な学習可能性を示すことは,その学習可能性を示すものではない。
続いて、分散クラスの学習性を阻害するデータ破損の種類について検討する。
- 参考スコア(独自算出の注目度): 13.45619583182489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We examine the relationship between learnability and robust (or agnostic) learnability for the problem of distribution learning. We show that, contrary to other learning settings (e.g., PAC learning of function classes), realizable learnability of a class of probability distributions does not imply its agnostic learnability. We go on to examine what type of data corruption can disrupt the learnability of a distribution class and what is such learnability robust against. We show that realizable learnability of a class of distributions implies its robust learnability with respect to only additive corruption, but not against subtractive corruption. We also explore related implications in the context of compression schemes and differentially private learnability.
- Abstract(参考訳): 本研究では,分散学習問題における学習可能性と頑健(あるいは不可知)学習性との関係について検討する。
我々は,他の学習環境(例えば,関数クラスのPAC学習)とは対照的に,確率分布のクラスを実現可能な学習性は,その非依存的な学習性を意味するものではないことを示す。
続いて、分散クラスの学習性を阻害するデータ破損の種類と、そのような学習可能性に対する堅牢性について検討する。
分布のクラスを再現可能な学習性は、加法的汚職だけでなく、減算的汚職に対しても頑健な学習性を意味することを示す。
また、圧縮スキームと微分プライベート学習可能性の文脈における関連性についても検討する。
関連論文リスト
- Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Can Self-Supervised Representation Learning Methods Withstand
Distribution Shifts and Corruptions? [5.706184197639971]
コンピュータビジョンにおける自己教師付き学習は、データ内の固有の構造と関係を利用して意味のある表現を学ぶことを目的としている。
本研究では,自己指導型学習手法の学習表現のロバスト性について検討し,分布シフトと画像劣化に着目した。
論文 参考訳(メタデータ) (2023-07-31T13:07:56Z) - Impossibility of Characterizing Distribution Learning -- a simple
solution to a long-standing problem [11.39656079889941]
分散クラス学習の複雑さを特徴付ける次元の概念は存在しないことを示す。
特に,どのタスクにも次元(あるいは学習可能性の特性)を特徴づける概念は存在しないことを示す。
論文 参考訳(メタデータ) (2023-04-18T03:23:39Z) - Is Self-Supervised Learning More Robust Than Supervised Learning? [29.129681691651637]
自己教師付きコントラスト学習はラベルなしで視覚表現を学習する強力なツールである。
コントラスト学習と教師あり学習の行動差を定量化するために、一連のロバストネステストを実施している。
事前トレーニングの汚職の下では、パッチシャッフルやピクセル強度の変化に対して、対照的な学習が脆弱でありながら、データセットレベルの分布変化には敏感でないことが分かりました。
論文 参考訳(メタデータ) (2022-06-10T17:58:00Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Boosting Barely Robust Learners: A New Perspective on Adversarial
Robustness [30.301460075475344]
比較的ロバストな学習アルゴリズムは、少数の部分だけで逆向きにロバストな予測器を学習する。
提案した頑健な学習の概念は,「より大きい」集合に対する摂動を必要とする。
論文 参考訳(メタデータ) (2022-02-11T22:07:36Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Pairwise Supervision Can Provably Elicit a Decision Boundary [84.58020117487898]
類似性学習は、パターンのペア間の関係を予測することによって有用な表現を引き出す問題である。
類似性学習は、決定境界を直接引き出すことによって二項分類を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-11T05:35:16Z) - On the Sample Complexity of Adversarial Multi-Source PAC Learning [46.24794665486056]
単一ソース設定では、トレーニングデータの一定割合を破損させるパワーを持つ相手がPAC学習を防止できる。
意外なことに、マルチソース設定では、敵が任意にデータソースの固定された部分を破壊することができるため、同じことが当てはまらない。
また, 他者とのデータ共有を協調的に行うことで, 悪意のある参加者でも有益であることが示唆された。
論文 参考訳(メタデータ) (2020-02-24T17:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。