論文の概要: Non-adversarial Robustness of Deep Learning Methods for Computer Vision
- arxiv url: http://arxiv.org/abs/2305.14986v1
- Date: Wed, 24 May 2023 10:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 17:16:27.750665
- Title: Non-adversarial Robustness of Deep Learning Methods for Computer Vision
- Title(参考訳): コンピュータビジョンのための深層学習法の非適応的ロバスト性
- Authors: Gorana Goji\'c, Vladimir Vincan, Ognjen Kunda\v{c}ina, Dragi\v{s}a
Mi\v{s}kovi\'c and Dinu Dragan
- Abstract要約: 非敵対的ロバスト性(英: non-adversarial robustness)、あるいは自然ロバスト性(英: natural robustness)は、ディープラーニングモデルの特性である。
本稿では,コンピュータビジョン手法のロバスト性向上のための最新の技術の概要を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-adversarial robustness, also known as natural robustness, is a property
of deep learning models that enables them to maintain performance even when
faced with distribution shifts caused by natural variations in data. However,
achieving this property is challenging because it is difficult to predict in
advance the types of distribution shifts that may occur. To address this
challenge, researchers have proposed various approaches, some of which
anticipate potential distribution shifts, while others utilize knowledge about
the shifts that have already occurred to enhance model generalizability. In
this paper, we present a brief overview of the most recent techniques for
improving the robustness of computer vision methods, as well as a summary of
commonly used robustness benchmark datasets for evaluating the model's
performance under data distribution shifts. Finally, we examine the strengths
and limitations of the approaches reviewed and identify general trends in deep
learning robustness improvement for computer vision.
- Abstract(参考訳): 非敵対的ロバスト性(Non-adversarial robustness、Natural robustness)は、データの自然な変動に起因する分散シフトに直面しても、パフォーマンスを維持することができるディープラーニングモデルの特性である。
しかし, 分布シフトのタイプを事前に予測することは困難であるため, この特性の実現は困難である。
この課題に対処するために、研究者は様々なアプローチを提案しており、そのうちのいくつかは潜在的分布シフトを予測し、もう1つはモデル一般化性を高めるために既に発生したシフトに関する知識を利用している。
本稿では、コンピュータビジョン手法のロバスト性を改善する最新の手法の概要と、データ分散シフト時のモデルの性能を評価するためによく使用されるロバスト性ベンチマークデータセットの概要について述べる。
最後に,このアプローチの強みと限界について検討し,コンピュータビジョンにおけるディープラーニングのロバスト性向上の一般的な傾向を明らかにする。
関連論文リスト
- A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献の理解を深めるために,提案した分類に基づく既存モデルを体系的に分類した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Benchmarking Low-Shot Robustness to Natural Distribution Shifts [18.84297269860671]
異なる低ショット状態における様々な自然分布シフトに対するロバスト性について検討する。
他のモデルよりも堅牢な選択モデルはありません。
既存の介入は、フルショット方式であっても、一部のデータセットの堅牢性を改善するのに失敗する可能性がある。
論文 参考訳(メタデータ) (2023-04-21T22:09:42Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - A Comprehensive Review of Trends, Applications and Challenges In
Out-of-Distribution Detection [0.76146285961466]
アウト・オブ・ディストリビューション・データ・サブセットの検出とより包括的な一般化の実現に焦点をあてた研究分野が誕生した。
多くのディープラーニングベースのモデルは、ベンチマークデータセットでほぼ完璧な結果を得たため、これらのモデルの信頼性と信頼性を評価する必要性は、これまで以上に強く感じられる。
本稿では,本分野における70以上の論文のレビューに加えて,今後の研究の課題と方向性を提示するとともに,データシフトの多種多様さを統一的に把握し,より一般化するためのソリューションを提案する。
論文 参考訳(メタデータ) (2022-09-26T18:13:14Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - The Many Faces of Robustness: A Critical Analysis of Out-of-Distribution
Generalization [64.61630743818024]
画像スタイルの変化,画像のぼやけ度,地理的位置,カメラ操作などの4つの新しい現実分布シフトデータセットを導入する。
より大規模なモデルと人工的なデータ拡張を用いることで,先行研究の主張に反して,実世界の分散シフトの堅牢性を向上させることができることがわかった。
また,1000倍のラベル付きデータで事前訓練されたモデルに対して,最先端のモデルと性能を向上する新たなデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2020-06-29T17:59:10Z) - Adversarial-based neural networks for affect estimations in the wild [3.3335236123901995]
本研究では,本研究で提案した対戦型ネットワークによる潜在機能の利用について検討する。
具体的には,判別器にいくつかのモードをアグリゲートすることで,生成器が抽出した潜在特性にさらに適応する。
最近リリースされたSEWAデータセットの実験は、結果の進歩的な改善を示唆している。
論文 参考訳(メタデータ) (2020-02-03T16:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。