論文の概要: Instability of computer vision models is a necessary result of the task
itself
- arxiv url: http://arxiv.org/abs/2310.17559v1
- Date: Thu, 26 Oct 2023 16:48:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 18:55:05.464795
- Title: Instability of computer vision models is a necessary result of the task
itself
- Title(参考訳): コンピュータビジョンモデルの不安定性はタスク自体の必要な結果である
- Authors: Oliver Turnbull, George Cevora
- Abstract要約: 我々は、a)データの対称性、b)分類タスクの分類的性質、c)画像自体をオブジェクトとして分類することの相違により、不安定性は必然的であることを示した。
コンピュータビジョンの課題が現在どのように定式化されているかは、不安定性が不可欠である、と結論付けている。
- 参考スコア(独自算出の注目度): 0.4895118383237099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial examples resulting from instability of current computer vision
models are an extremely important topic due to their potential to compromise
any application. In this paper we demonstrate that instability is inevitable
due to a) symmetries (translational invariance) of the data, b) the categorical
nature of the classification task, and c) the fundamental discrepancy of
classifying images as objects themselves. The issue is further exacerbated by
non-exhaustive labelling of the training data. Therefore we conclude that
instability is a necessary result of how the problem of computer vision is
currently formulated. While the problem cannot be eliminated, through the
analysis of the causes, we have arrived at ways how it can be partially
alleviated. These include i) increasing the resolution of images, ii) providing
contextual information for the image, iii) exhaustive labelling of training
data, and iv) preventing attackers from frequent access to the computer vision
system.
- Abstract(参考訳): 現在のコンピュータビジョンモデルの不安定性から生じる敵の例は、アプリケーションに侵入する可能性があるため、非常に重要なトピックである。
本稿では不安定が必然的であることを示す。
a)データの対称性(推移不変性)
b) 分類作業の分類学的性質,及び
c) 画像自体をオブジェクトとして分類することの根本的な相違
この問題は、トレーニングデータの非実行ラベル付けによってさらに悪化する。
したがって、コンピュータビジョンの問題を現在どのように定式化しているかは、不安定性が不可欠である。
問題は排除できないが、原因の分析を通じて、我々はそれを部分的に緩和する方法に到達した。
以下を含む。
一 画像の解像度を増加させること
二 画像の文脈情報の提供
三 トレーニングデータの徹底的なラベル付け及び
四 攻撃者がコンピュータビジョンシステムに頻繁にアクセスすることを防止すること。
関連論文リスト
- Progressive Alignment with VLM-LLM Feature to Augment Defect Classification for the ASE Dataset [7.1083241462091165]
従来の欠陥分類アプローチは2つの障壁に直面している。
不十分なトレーニングデータと不安定なデータ品質。
画像上に記録されたリッチなデータ記述を含む,欠陥分類のための特別なデータセットを提案するが,欠陥特徴を直接学習するのは困難である。
論文 参考訳(メタデータ) (2024-04-08T04:17:27Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Combating Uncertainty and Class Imbalance in Facial Expression
Recognition [4.306007841758853]
本稿では,Resnet と Attention に基づくフレームワークを提案する。
本手法は,表情データセットの精度において,最も基本的な手法を超越している。
論文 参考訳(メタデータ) (2022-12-15T12:09:02Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Visual Perturbation-aware Collaborative Learning for Overcoming the
Language Prior Problem [60.0878532426877]
本稿では,視覚的摂動校正の観点から,新しい協調学習手法を提案する。
具体的には、異なる摂動範囲で2種類のキュレートされた画像を構築するための視覚コントローラを考案する。
2つの診断VQA-CPベンチマークデータセットの実験結果は、その効果を明らかに示している。
論文 参考訳(メタデータ) (2022-07-24T23:50:52Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Loss re-scaling VQA: Revisiting the LanguagePrior Problem from a
Class-imbalance View [129.392671317356]
本稿では,クラス不均衡の観点から,VQAにおける言語先行問題を理解することを提案する。
これは、なぜVQAモデルが頻繁に、そして明らかに間違った答えをもたらすのかを明確に示している。
また,顔認識や画像分類などの他のコンピュータビジョンタスクに対して,クラス不均衡解釈方式の有効性を正当化する。
論文 参考訳(メタデータ) (2020-10-30T00:57:17Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - A Heteroscedastic Uncertainty Model for Decoupling Sources of MRI Image
Quality [3.5480752735999417]
セグメンテーションなどの下流分析を成功させるためには、医用画像の品質管理(QC)が不可欠である。
本研究では,不確実性を推定する確率的ネットワークをヘテロセダスティックノイズモデルにより構築し,そのプロセスを自動化することを目的とする。
シミュレーションされた人工物を用いて訓練したモデルは、実世界の画像に不確実性を示す情報的尺度を提供するとともに、人間のレーダが特定した問題画像に対する不確実性予測を検証する。
論文 参考訳(メタデータ) (2020-01-31T16:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。