論文の概要: Learning Deep Neural Networks under Agnostic Corrupted Supervision
- arxiv url: http://arxiv.org/abs/2102.06735v1
- Date: Fri, 12 Feb 2021 19:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:06:56.507017
- Title: Learning Deep Neural Networks under Agnostic Corrupted Supervision
- Title(参考訳): Agnostic Corrupted Supervision による深層ニューラルネットワークの学習
- Authors: Boyang Liu, Mengying Sun, Ding Wang, Pang-Ning Tan, Jiayu Zhou
- Abstract要約: 我々は,汚職のタイプを前提にせずに,強力な保証を実現する効率的なロバストアルゴリズムを提案する。
本アルゴリズムは,平均勾配に対するデータポイントの集団的影響の制御に重点を置いている。
複数のベンチマークデータセットの実験は、異なる種類の汚職下でのアルゴリズムの堅牢性を実証した。
- 参考スコア(独自算出の注目度): 37.441467641123026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training deep neural models in the presence of corrupted supervision is
challenging as the corrupted data points may significantly impact the
generalization performance. To alleviate this problem, we present an efficient
robust algorithm that achieves strong guarantees without any assumption on the
type of corruption and provides a unified framework for both classification and
regression problems. Unlike many existing approaches that quantify the quality
of the data points (e.g., based on their individual loss values), and filter
them accordingly, the proposed algorithm focuses on controlling the collective
impact of data points on the average gradient. Even when a corrupted data point
failed to be excluded by our algorithm, the data point will have a very limited
impact on the overall loss, as compared with state-of-the-art filtering methods
based on loss values. Extensive experiments on multiple benchmark datasets have
demonstrated the robustness of our algorithm under different types of
corruption.
- Abstract(参考訳): 破損したデータポイントが一般化のパフォーマンスに大きく影響する可能性があるため、破損した監督の存在下で深い神経モデルを訓練することは困難です。
この問題を解決するために,汚職の種類を前提とせずに強力な保証を実現する効率的なロバストアルゴリズムを提案し,分類問題と回帰問題の両方に対する統一フレームワークを提供する。
データポイントの品質(例えば、個々の損失値に基づいて)を定量化し、それに従ってフィルタリングする既存のアプローチとは異なり、提案アルゴリズムは平均勾配に対するデータポイントの集合的影響を制御することに重点を置いている。
破損したデータポイントがアルゴリズムによって除外されない場合でも、データポイントは損失値に基づく最先端のフィルタリング手法と比較して、全体的な損失に非常に限定的な影響を与える。
複数のベンチマークデータセットに関する広範な実験は、異なる種類の破損下でのアルゴリズムの堅牢性を示した。
関連論文リスト
- Uncertainty estimation in Deep Learning for Panoptic segmentation [1.0062187787765149]
本研究では, アンサンブルに基づく不確実性推定手法が汎視的セグメンテーション領域でどのように利用できるかを示す。
COCO、KITTI-STEP、VIPERデータセットで結果が示されている。
論文 参考訳(メタデータ) (2023-04-04T19:54:35Z) - A Unified Framework of Policy Learning for Contextual Bandit with
Confounding Bias and Missing Observations [108.89353070722497]
本研究では,観測データを用いた最適ポリシの獲得を目的とした,オフラインのコンテキスト的帯域幅問題について検討する。
本稿では、積分方程式系の解として報酬関数を形成するCausal-Adjusted Pessimistic(CAP)ポリシー学習という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-20T15:17:31Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - Interpolation-based Contrastive Learning for Few-Label Semi-Supervised
Learning [43.51182049644767]
半教師付き学習(SSL)は,ラベルが限定された強力なモデルを構築する上で,有効な手法であることが長年証明されてきた。
摂動サンプルを元のものと類似した予測を強制する正規化に基づく手法が注目されている。
本稿では,学習ネットワークの埋め込みを誘導し,サンプル間の線形変化を誘導する新たな対照的な損失を提案する。
論文 参考訳(メタデータ) (2022-02-24T06:00:05Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Semi-Supervised Classification and Segmentation on High Resolution
Aerial Images [0.0]
FloodNetは、小さなUAVプラットフォームであるDJI Mavic ProクワッドコプターによってHurricane Harveyにちなんで取得された高解像度の画像データセットである。
このデータセットは、災害後のシナリオに対する損傷評価プロセスを進めるというユニークな課題を示しています。
分類とセマンティックセグメンテーションの課題に対処するソリューションを提案します。
論文 参考訳(メタデータ) (2021-05-16T09:30:03Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - A Self-Refinement Strategy for Noise Reduction in Grammatical Error
Correction [54.569707226277735]
既存の文法的誤り訂正(GEC)のアプローチは、手動で作成したGECデータセットによる教師あり学習に依存している。
誤りが不適切に編集されたり、修正されなかったりする「ノイズ」は無視できないほどある。
本稿では,既存のモデルの予測整合性を利用して,これらのデータセットをデノマイズする自己補充手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T04:45:09Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Establishing strong imputation performance of a denoising autoencoder in
a wide range of missing data problems [0.0]
トレーニングと計算の両方に一貫したフレームワークを開発します。
結果と最先端の計算手法を比較検討した。
開発されたオートエンコーダは、初期データ破損のあらゆる範囲において最小の誤差を得た。
論文 参考訳(メタデータ) (2020-04-06T12:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。