論文の概要: A General Framework for Learning under Corruption: Label Noise,
Attribute Noise, and Beyond
- arxiv url: http://arxiv.org/abs/2307.08643v1
- Date: Mon, 17 Jul 2023 16:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:07:09.567214
- Title: A General Framework for Learning under Corruption: Label Noise,
Attribute Noise, and Beyond
- Title(参考訳): 破壊下での学習のための一般的な枠組み:ラベルノイズ、属性ノイズなど
- Authors: Laura Iacovissi and Nan Lu and Robert C. Williamson
- Abstract要約: 崩壊は収集されたデータで頻繁に観測され、異なる汚職モデルの下で機械学習で広く研究されている。
我々は,Markovカーネルをベースとした汎用的,網羅的なフレームワークを用いて,分布レベルでの汚職モデルを分析する。
既存の研究ではほとんど触れられていないラベルと属性の両方に、複雑な共同や依存的な汚職の存在を強調します。
- 参考スコア(独自算出の注目度): 14.28315402445874
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Corruption is frequently observed in collected data and has been extensively
studied in machine learning under different corruption models. Despite this,
there remains a limited understanding of how these models relate such that a
unified view of corruptions and their consequences on learning is still
lacking. In this work, we formally analyze corruption models at the
distribution level through a general, exhaustive framework based on Markov
kernels. We highlight the existence of intricate joint and dependent
corruptions on both labels and attributes, which are rarely touched by existing
research. Further, we show how these corruptions affect standard supervised
learning by analyzing the resulting changes in Bayes Risk. Our findings offer
qualitative insights into the consequences of "more complex" corruptions on the
learning problem, and provide a foundation for future quantitative comparisons.
Applications of the framework include corruption-corrected learning, a subcase
of which we study in this paper by theoretically analyzing loss correction with
respect to different corruption instances.
- Abstract(参考訳): 腐敗は収集されたデータでしばしば観察され、異なる腐敗モデルの下で機械学習で広範囲に研究されている。
それにもかかわらず、これらのモデルがどのように関連するかについての理解は限られており、腐敗と学習に対する影響の統一的な見解はまだ欠けている。
本研究では,Markovカーネルをベースとした汎用的,網羅的なフレームワークを用いて,分布レベルでの汚職モデルの解析を行う。
既存の研究ではほとんど触れられていないラベルと属性の両方に複雑なジョイントと依存的腐敗が存在することを強調する。
さらに,ベイズリスクの変化を解析することにより,これらの腐敗が標準教師付き学習にどのように影響するかを示す。
本研究は,学習問題に対する「より複雑な」腐敗の結果に対する質的洞察を提供し,今後の定量的比較の基礎を提供する。
このフレームワークの応用例としては、腐敗訂正学習があるが、そのサブケースは、異なる腐敗インスタンスに対する損失補正を理論的に分析することで研究している。
関連論文リスト
- Corruption-Robust Linear Bandits: Minimax Optimality and Gap-Dependent Misspecification [17.288347876319126]
線形バンディットでは、学習者が腐敗した報酬に直面するとき、効果的に学習できるのか?
汚職レベルは学習者が選択した行動に依存するが、汚職レベルは学習者が選択した行動に依存しない。
線形包帯については, 強い汚職と弱い汚職下でのミニマックス後悔のギャップを, 完全に特徴づける。
論文 参考訳(メタデータ) (2024-10-10T02:01:46Z) - Hierarchical Contrastive Learning for Pattern-Generalizable Image
Corruption Detection [40.04083743934034]
劣化領域を検出するための階層的コントラスト学習フレームワークを開発する。
特殊な階層的相互作用機構は、異なるスケールでのコントラスト学習の知識を促進するように設計されている。
我々のモデルは様々な汚職パターンにまたがってよく一般化できる。
論文 参考訳(メタデータ) (2023-08-27T10:03:48Z) - Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions [48.34142457385199]
MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
論文 参考訳(メタデータ) (2023-06-12T15:19:13Z) - Point-DAE: Denoising Autoencoders for Self-supervised Point Cloud Learning [54.51061298877896]
我々は、より一般的なポイントクラウド学習用オートエンコーダ(Point-DAE)について、マスキング以外の多くの種類の汚職を調査して検討する。
具体的には、特定の破損を入力としてポイントクラウドを分解し、エンコーダ・デコーダモデルを学び、元のポイントクラウドを破損したバージョンから再構築する。
論文 参考訳(メタデータ) (2022-11-13T08:02:03Z) - Soft Diffusion: Score Matching for General Corruptions [84.26037497404195]
我々は,任意の線形汚職過程のスコア関数を確実に学習するSoft Score Matchingと呼ばれる新しい目的を提案する。
本研究の目的は, 汚職過程の家族に対して, 適正な規則性条件下での確率の勾配を学習することである。
提案手法はCelebA-64上でのFIDスコアを1.85ドルで達成し,従来の線形拡散モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-12T17:45:03Z) - Nearly Optimal Algorithms for Linear Contextual Bandits with Adversarial
Corruptions [98.75618795470524]
本稿では,敵対的腐敗の存在下での線形文脈的包帯問題について検討する。
我々は不確実性に直面した楽観主義の原理に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-13T17:58:58Z) - Using the Overlapping Score to Improve Corruption Benchmarks [6.445605125467574]
本稿では、汚職ベンチマークの欠陥を明らかにするために、汚職重複スコアと呼ばれる指標を提案する。
汚職間の重複を考慮に入れれば、既存のベンチマークを改善したり、より良いベンチマークを構築するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-26T06:42:54Z) - On Interaction Between Augmentations and Corruptions in Natural
Corruption Robustness [78.6626755563546]
ImageNet-Cのパフォーマンスを大幅に改善するいくつかの新しいデータ拡張が提案されている。
我々は,類似度と性能の間に強い相関があることを示すために,最小サンプル距離(minimal sample distance)と呼ばれる拡張と腐敗の間の新たな尺度を開発した。
テストタイムの破損がImageNet-Cと知覚的に異なる場合, 破損の顕著な劣化を観察する。
以上の結果から,テストエラーは知覚的に類似した拡張をトレーニングすることで改善できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-22T18:58:39Z) - Corruption-robust exploration in episodic reinforcement learning [76.19192549843727]
本研究は, システムにおける報酬と遷移確率の両面において, 敵対的腐敗下での多段階・多段階・多段階強化学習について検討した。
我々の枠組みは、汚職の欠如をほぼ最適に後悔する効率的なアルゴリズムをもたらす。
特に,本研究は,根本的強化学習のためのBandit-Feedbackモデルにおいて,純粋にI.d.遷移からの逸脱を保証した最初のサブ線形後悔の保証を提供する。
論文 参考訳(メタデータ) (2019-11-20T03:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。