論文の概要: Game-Theoretic Understanding of Misclassification
- arxiv url: http://arxiv.org/abs/2210.03349v1
- Date: Fri, 7 Oct 2022 06:50:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:10:28.410415
- Title: Game-Theoretic Understanding of Misclassification
- Title(参考訳): ゲーム理論によるミス分類の理解
- Authors: Kosuke Sumiyasu, Kazuhiko Kawamoto, Hiroshi Kera
- Abstract要約: 本稿では,ゲーム理論の観点から,様々な種類の画像誤分類を解析する。
クリーンで敵対的,腐敗した画像の誤分類を考察し,マルチオーダーインタラクションの分布を通して特徴付ける。
- 参考スコア(独自算出の注目度): 3.480626767752489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper analyzes various types of image misclassification from a
game-theoretic view. Particularly, we consider the misclassification of clean,
adversarial, and corrupted images and characterize it through the distribution
of multi-order interactions. We discover that the distribution of multi-order
interactions varies across the types of misclassification. For example,
misclassified adversarial images have a higher strength of high-order
interactions than correctly classified clean images, which indicates that
adversarial perturbations create spurious features that arise from complex
cooperation between pixels. By contrast, misclassified corrupted images have a
lower strength of low-order interactions than correctly classified clean
images, which indicates that corruptions break the local cooperation between
pixels. We also provide the first analysis of Vision Transformers using
interactions. We found that Vision Transformers show a different tendency in
the distribution of interactions from that in CNNs, and this implies that they
exploit the features that CNNs do not use for the prediction. Our study
demonstrates that the recent game-theoretic analysis of deep learning models
can be broadened to analyze various malfunctions of deep learning models
including Vision Transformers by using the distribution, order, and sign of
interactions.
- Abstract(参考訳): 本稿では,ゲーム理論的な視点から各種画像の誤分類を解析する。
特に,清潔で敵対的で腐敗した画像の誤分類を考慮し,多階インタラクションの分布を特徴付ける。
マルチオーダー相互作用の分布は, 誤分類の種類によって異なることが判明した。
例えば、誤分類された逆境画像は、正しく分類されたクリーン画像よりも高次相互作用の強度が高いため、逆境の摂動は画素間の複雑な協調から生じる突発的な特徴を生じさせる。
対照的に、誤分類された劣化画像は、正しく分類されたクリーン画像よりも低次相互作用の強度が低い。
また,視覚トランスフォーマーのインタラクションを用いた最初の解析を行う。
その結果、視覚変換器はCNNと相互作用の分布が異なる傾向を示しており、CNNが予測に用いない特徴を活用していることがわかった。
本研究では,近年の深層学習モデルのゲーム理論解析により,視覚トランスフォーマーを含む深層学習モデルの様々な誤動作を,分布・順序・符号を用いて解析できることを実証する。
関連論文リスト
- Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - CNNs and Transformers Perceive Hybrid Images Similar to Humans [47.64219291655723]
深層学習視覚モデルの予測は、ハイブリッド画像の人間の知覚と定性的に一致していることを示す。
我々の結果は、畳み込みニューラルネットワーク(CNN)とトランスフォーマー(Transformer)が、視覚野の腹側の流れにおける情報のフィードフォワードスイープのモデル化に長けているという仮説を支持する新たな証拠を提供する。
論文 参考訳(メタデータ) (2022-03-19T21:37:07Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - A Comparison for Anti-noise Robustness of Deep Learning Classification
Methods on a Tiny Object Image Dataset: from Convolutional Neural Network to
Visual Transformer and Performer [27.023667473278266]
まず,ディープラーニングにおける畳み込みニューラルネットワークとビジュアルトランスフォーマーの開発について概説する。
次に、畳み込みニューラルネットワークとビジュアルトランスフォーマーの様々なモデルを用いて、小さなオブジェクトの画像データセット上で一連の実験を行う。
小型物体の分類における問題点を論じ, 今後, 小型物体の分類を展望する。
論文 参考訳(メタデータ) (2021-06-03T15:28:17Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。