論文の概要: Strategies for Robust Image Classification
- arxiv url: http://arxiv.org/abs/2004.03452v2
- Date: Thu, 13 Aug 2020 16:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 20:54:58.085418
- Title: Strategies for Robust Image Classification
- Title(参考訳): ロバスト画像分類のための戦略
- Authors: Jason Stock, Andy Dolan, and Tom Cavey
- Abstract要約: 画像分類モデルが一貫した正確な結果を生み出す能力に悪影響を及ぼす要因を探索する。
モデルの分類能力は、デジタル異常や物理的環境の変化の結果、画像への変化によって負の影響を受ける。
我々の貢献は、モデルがこれらの変更に対して堅牢性を一般化し改善する能力を向上する様々な訓練技術を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we evaluate the impact of digitally altered images on the
performance of artificial neural networks. We explore factors that negatively
affect the ability of an image classification model to produce consistent and
accurate results. A model's ability to classify is negatively influenced by
alterations to images as a result of digital abnormalities or changes in the
physical environment. The focus of this paper is to discover and replicate
scenarios that modify the appearance of an image and evaluate them on
state-of-the-art machine learning models. Our contributions present various
training techniques that enhance a model's ability to generalize and improve
robustness against these alterations.
- Abstract(参考訳): 本研究では,デジタル変換画像が人工ニューラルネットワークの性能に与える影響を評価する。
画像分類モデルが一貫した正確な結果を生み出す能力に悪影響を及ぼす要因を探索する。
モデルの分類能力は、デジタル異常や物理的環境の変化の結果、画像への変化によって負の影響を受ける。
本研究の目的は,画像の外観を変えるシナリオを発見し,再現し,最先端の機械学習モデルで評価することである。
我々の貢献は、モデルがこれらの変更に対して堅牢性を一般化し改善する能力を向上する様々な訓練技術を示す。
関連論文リスト
- ObjectCompose: Evaluating Resilience of Vision-Based Models on
Object-to-Background Compositional Changes [69.28123489510172]
本研究では,視覚モデルによる多様な背景背景環境に対するレジリエンスを評価する。
我々は、画像から画像への変換、画像から画像への変換、および画像から画像への変換モデルの生成機能を利用して、オブジェクトから背景への変換を自動的に生成する。
論文 参考訳(メタデータ) (2024-03-07T17:48:48Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - Scaling Laws of Synthetic Images for Model Training ... for Now [54.43596959598466]
本研究では, 合成画像のスケーリング法則について, テクスト・ツー・イメージ・モデルの現状から検討した。
合成画像は、CLIPトレーニングの実際の画像と似ているが、やや効果の低いスケーリング傾向を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:59Z) - Exploiting Causality Signals in Medical Images: A Pilot Study with
Empirical Results [1.2400966570867322]
本稿では,ニューラルネットワークによる分類目的の画像から弱い因果信号を発見し,利用するための新しい手法を提案する。
このようにして、画像の1つの部分における特徴の存在が、画像の別の部分における他の特徴の出現にどのように影響するかをモデル化する。
提案手法は,畳み込みニューラルネットワークのバックボーンと因果係数抽出モジュールから構成される。
論文 参考訳(メタデータ) (2023-09-19T08:00:26Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。