論文の概要: On Human Visual Contrast Sensitivity and Machine Vision Robustness: A
Comparative Study
- arxiv url: http://arxiv.org/abs/2212.08650v1
- Date: Fri, 16 Dec 2022 18:51:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:49:14.792627
- Title: On Human Visual Contrast Sensitivity and Machine Vision Robustness: A
Comparative Study
- Title(参考訳): 人間の視覚コントラスト感度と機械視ロバスト性について:比較研究
- Authors: Ming-Chang Chiu, Yingfei Wang, Derrick Eui Gyu Kim, Pin-Yu Chen,
Xuezhe Ma
- Abstract要約: 色の違いがマシンビジョンにどのように影響するかは、まだよく研究されていない。
我々の研究は、視覚認識の人間の色覚と機械の色覚のギャップを埋めようとしている。
カラーコントラストと劣化画像の効果を広範囲に解析するために,新しい枠組みを2次元で考案した。
- 参考スコア(独自算出の注目度): 68.41864523774164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well established in neuroscience that color vision plays an essential
part in the human visual perception system. Meanwhile, many novel designs for
computer vision inspired by human vision have achieved success in a wide range
of tasks and applications. Nonetheless, how color differences affect machine
vision has not been well explored. Our work tries to bridge this gap between
the human color vision aspect of visual recognition and that of the machine. To
achieve this, we curate two datasets: CIFAR10-F and CIFAR100-F, which are based
on the foreground colors of the popular CIFAR datasets. Together with CIFAR10-B
and CIFAR100-B, the existing counterpart datasets with information on the
background colors of CIFAR test sets, we assign each image based on its color
contrast level per its foreground and background color labels and use this as a
proxy to study how color contrast affects machine vision. We first conduct a
proof-of-concept study, showing the effect of color difference and validate our
datasets. Furthermore, on a broader level, an important characteristic of human
vision is its robustness against ambient changes; therefore, drawing
inspirations from ophthalmology and the robustness literature, we analogize
contrast sensitivity from the human visual aspect to machine vision and
complement the current robustness study using corrupted images with our
CIFAR-CoCo datasets. In summary, motivated by neuroscience and equipped with
the datasets we curate, we devise a new framework in two dimensions to perform
extensive analyses on the effect of color contrast and corrupted images: (1)
model architecture, (2) model size, to measure the perception ability of
machine vision beyond total accuracy. We also explore how task complexity and
data augmentation play a role in this setup. Our results call attention to new
evaluation approaches for human-like machine perception.
- Abstract(参考訳): 色覚が人間の視覚知覚システムに不可欠な役割を担っていることは神経科学においてよく確立されている。
一方、人間の視覚にインスパイアされたコンピュータビジョンのための新しいデザインは、幅広いタスクや応用で成功している。
それでも、色の違いがマシンビジョンにどのように影響するかは十分に検討されていない。
私たちの研究は、視覚認識の人間の色覚面と機械のそれとのギャップを橋渡ししようと試みています。
これを実現するために、人気のあるcifarデータセットの前景色に基づく2つのデータセット、cifar10-fとcifar100-fをキュレートする。
CIFARテストセットの背景色に関する情報を持つ既存のデータセットであるCIFAR10-BとCIFAR100-Bと合わせて、前景と背景の色ラベルごとに色コントラストレベルに基づいて各画像を割り当て、これをプロキシとして使用し、色コントラストがマシンビジョンに与える影響を研究する。
まず、概念実証研究を行い、色差の効果を示し、データセットを検証する。
さらに、より広いレベルでは、人間の視覚の重要な特徴は、周囲の変化に対する堅牢性であり、眼科や頑健性文学からインスピレーションを得て、人間の視覚的側面からのコントラスト感度をマシンビジョンに類似させ、劣化した画像とCIFAR-CoCoデータセットを用いた現在のロバストネス研究を補完する。
まとめると, 神経科学に動機付けられ, キュレートするデータセットを取り入れた新たな枠組みを考案し, カラーコントラストと劣化画像の効果を広範囲に分析し, モデルアーキテクチャ, (2) モデルサイズ, マシンビジョンの知覚能力を総合的精度を超えて測定する。
このセットアップでは、タスクの複雑さとデータ拡張がどのように役割を果たすかについても検討する。
本研究は,人間のような機械知覚に対する新しい評価手法に注意を向ける。
関連論文リスト
- Impact of Iris Pigmentation on Performance Bias in Visible Iris Verification Systems: A Comparative Study [6.639785884921617]
生体認証システムの有効性に対する虹彩色素化の影響について検討し,青と暗の虹彩の比較分析に焦点をあてた。
以上の結果から,虹彩認識システムは一般的に暗黒の虹彩に比べて青色の虹彩に対して高い精度を示すことが示唆された。
本分析では,虹彩色とデバイス間変動に関する認識性能に固有のバイアスを同定する。
論文 参考訳(メタデータ) (2024-11-13T10:15:27Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - FACET: Fairness in Computer Vision Evaluation Benchmark [21.862644380063756]
コンピュータビジョンモデルは、性別や肌のトーンなどの属性間でパフォーマンスの相違が知られている。
FACET (FAirness in Computer Vision EvaluaTion) という新しいベンチマークを提案する。
FACETは、最も一般的な視覚タスクのための32kイメージの大規模な、一般公開された評価セットである。
論文 参考訳(メタデータ) (2023-08-31T17:59:48Z) - The Influences of Color and Shape Features in Visual Contrastive
Learning [0.0]
本稿では,個々の画像特徴(色や形状など)がモデル性能に与える影響について検討する。
実験結果から、教師付き表現と比較して、コントラスト表現は類似した色を持つオブジェクトとクラスタリングする傾向にあることが示された。
論文 参考訳(メタデータ) (2023-01-29T15:10:14Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - Fairness Indicators for Systematic Assessments of Visual Feature
Extractors [21.141633753573764]
視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
論文 参考訳(メタデータ) (2022-02-15T17:45:33Z) - Exploring Visual Engagement Signals for Representation Learning [56.962033268934015]
VisEは、クラスタ化されたエンゲージメント信号から派生した擬似ラベルにソーシャルイメージをマップする弱い教師付き学習アプローチである。
この方法でトレーニングされたモデルが、感情認識や政治的バイアス検出といった主観的なコンピュータビジョンタスクにどのように役立つかを研究する。
論文 参考訳(メタデータ) (2021-04-15T20:50:40Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。