論文の概要: The Many Faces of Robustness: A Critical Analysis of Out-of-Distribution
Generalization
- arxiv url: http://arxiv.org/abs/2006.16241v3
- Date: Sat, 24 Jul 2021 04:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 13:18:02.060026
- Title: The Many Faces of Robustness: A Critical Analysis of Out-of-Distribution
Generalization
- Title(参考訳): ロバストネスの多面性:分布外一般化の批判的分析
- Authors: Dan Hendrycks, Steven Basart, Norman Mu, Saurav Kadavath, Frank Wang,
Evan Dorundo, Rahul Desai, Tyler Zhu, Samyak Parajuli, Mike Guo, Dawn Song,
Jacob Steinhardt, Justin Gilmer
- Abstract要約: 画像スタイルの変化,画像のぼやけ度,地理的位置,カメラ操作などの4つの新しい現実分布シフトデータセットを導入する。
より大規模なモデルと人工的なデータ拡張を用いることで,先行研究の主張に反して,実世界の分散シフトの堅牢性を向上させることができることがわかった。
また,1000倍のラベル付きデータで事前訓練されたモデルに対して,最先端のモデルと性能を向上する新たなデータ拡張手法を提案する。
- 参考スコア(独自算出の注目度): 64.61630743818024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce four new real-world distribution shift datasets consisting of
changes in image style, image blurriness, geographic location, camera
operation, and more. With our new datasets, we take stock of previously
proposed methods for improving out-of-distribution robustness and put them to
the test. We find that using larger models and artificial data augmentations
can improve robustness on real-world distribution shifts, contrary to claims in
prior work. We find improvements in artificial robustness benchmarks can
transfer to real-world distribution shifts, contrary to claims in prior work.
Motivated by our observation that data augmentations can help with real-world
distribution shifts, we also introduce a new data augmentation method which
advances the state-of-the-art and outperforms models pretrained with 1000 times
more labeled data. Overall we find that some methods consistently help with
distribution shifts in texture and local image statistics, but these methods do
not help with some other distribution shifts like geographic changes. Our
results show that future research must study multiple distribution shifts
simultaneously, as we demonstrate that no evaluated method consistently
improves robustness.
- Abstract(参考訳): 画像スタイルの変化,画像のぼやけ度,地理的位置,カメラ操作などの4つの新しい現実分布シフトデータセットを導入する。
新しいデータセットでは、以前提案していた分散の堅牢性を改善する方法の在庫をテストに投入します。
大規模モデルと人工データ拡張を用いることで,先行研究の主張とは対照的に,実世界の分散シフトの堅牢性が向上することが分かった。
人工的ロバストネスベンチマークの改善は、以前の作業における主張とは対照的に、現実世界の分散シフトに転送できる。
また,1000倍のラベル付きデータで事前学習したモデルに対して,データ拡張が実世界の分散シフトに有効であることを示すとともに,データ拡張手法を導入する。
概して、テクスチャや局所画像統計の分布シフトに一貫した手法があるが、これらの手法は地理的変化のような他の分布シフトには役立たない。
今後の研究は,複数の分布シフトを同時に研究する必要があることを示し,ロバスト性が一貫して向上しないことを示す。
関連論文リスト
- Control+Shift: Generating Controllable Distribution Shifts [1.3060023718506917]
本稿では,デコーダに基づく生成モデルを用いて,分布シフトを伴う現実的なデータセットを生成する手法を提案する。
提案手法は,分散シフトの強度の異なるデータセットを体系的に生成し,モデル性能劣化の包括的解析を容易にする。
論文 参考訳(メタデータ) (2024-09-12T11:07:53Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Non-adversarial Robustness of Deep Learning Methods for Computer Vision [0.0]
非敵対的ロバスト性(英: non-adversarial robustness)、あるいは自然ロバスト性(英: natural robustness)は、ディープラーニングモデルの特性である。
本稿では,コンピュータビジョン手法のロバスト性向上のための最新の技術の概要を紹介する。
論文 参考訳(メタデータ) (2023-05-24T10:21:31Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z) - A Fine-Grained Analysis on Distribution Shift [24.084676204709723]
本稿では,分布変化の微粒化解析を可能にするフレームワークを提案する。
合成と実世界の両方のデータセットにまたがる5つのカテゴリにグループ分けされた19の異なる手法を評価する。
私たちのフレームワークは簡単に拡張でき、新しいメソッド、シフト、データセットを含めることができます。
論文 参考訳(メタデータ) (2021-10-21T17:57:08Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。