論文の概要: Strategies for Robust Image Classification
- arxiv url: http://arxiv.org/abs/2004.03452v2
- Date: Thu, 13 Aug 2020 16:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 20:54:58.085418
- Title: Strategies for Robust Image Classification
- Title(参考訳): ロバスト画像分類のための戦略
- Authors: Jason Stock, Andy Dolan, and Tom Cavey
- Abstract要約: 画像分類モデルが一貫した正確な結果を生み出す能力に悪影響を及ぼす要因を探索する。
モデルの分類能力は、デジタル異常や物理的環境の変化の結果、画像への変化によって負の影響を受ける。
我々の貢献は、モデルがこれらの変更に対して堅牢性を一般化し改善する能力を向上する様々な訓練技術を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we evaluate the impact of digitally altered images on the
performance of artificial neural networks. We explore factors that negatively
affect the ability of an image classification model to produce consistent and
accurate results. A model's ability to classify is negatively influenced by
alterations to images as a result of digital abnormalities or changes in the
physical environment. The focus of this paper is to discover and replicate
scenarios that modify the appearance of an image and evaluate them on
state-of-the-art machine learning models. Our contributions present various
training techniques that enhance a model's ability to generalize and improve
robustness against these alterations.
- Abstract(参考訳): 本研究では,デジタル変換画像が人工ニューラルネットワークの性能に与える影響を評価する。
画像分類モデルが一貫した正確な結果を生み出す能力に悪影響を及ぼす要因を探索する。
モデルの分類能力は、デジタル異常や物理的環境の変化の結果、画像への変化によって負の影響を受ける。
本研究の目的は,画像の外観を変えるシナリオを発見し,再現し,最先端の機械学習モデルで評価することである。
我々の貢献は、モデルがこれらの変更に対して堅牢性を一般化し改善する能力を向上する様々な訓練技術を示す。
関連論文リスト
- Stain-Invariant Representation for Tissue Classification in Histology Images [1.1624569521079424]
染色摂動行列を用いたトレーニング画像の染色増分版を生成するフレームワークを提案する。
大腸癌画像のクロスドメイン多クラス組織型分類における提案モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-11-21T23:50:30Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - ObjectCompose: Evaluating Resilience of Vision-Based Models on Object-to-Background Compositional Changes [64.57705752579207]
本研究では,視覚モデルによる多様な背景背景環境に対するレジリエンスを評価する。
我々は、画像から画像への変換、画像から画像への変換、および画像から画像への変換モデルの生成機能を利用して、オブジェクトから背景への変換を自動的に生成する。
論文 参考訳(メタデータ) (2024-03-07T17:48:48Z) - Neural Additive Image Model: Interpretation through Interpolation [0.0]
本稿では,ニューラル加算モデルと拡散オートエンコーダを用いた全体論的モデリング手法を提案する。
本手法は, アブレーション実験において, 複雑な画像効果を正確に同定できることを実証する。
提案モデルの実用性をさらに実証するため,ホスト画像内の特徴的特徴と属性がAirbnbレンタルの価格にどのように影響するかをケーススタディで検討した。
論文 参考訳(メタデータ) (2024-03-06T16:46:07Z) - Scaling Laws of Synthetic Images for Model Training ... for Now [54.43596959598466]
本研究では, 合成画像のスケーリング法則について, テクスト・ツー・イメージ・モデルの現状から検討した。
合成画像は、CLIPトレーニングの実際の画像と似ているが、やや効果の低いスケーリング傾向を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:59Z) - Exploiting Causality Signals in Medical Images: A Pilot Study with
Empirical Results [1.2400966570867322]
本稿では,ニューラルネットワークによる分類目的の画像から弱い因果信号を発見し,利用するための新しい手法を提案する。
このようにして、画像の1つの部分における特徴の存在が、画像の別の部分における他の特徴の出現にどのように影響するかをモデル化する。
提案手法は,畳み込みニューラルネットワークのバックボーンと因果係数抽出モジュールから構成される。
論文 参考訳(メタデータ) (2023-09-19T08:00:26Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。