論文の概要: Extreme Image Transformations Affect Humans and Machines Differently
- arxiv url: http://arxiv.org/abs/2212.13967v2
- Date: Tue, 11 Apr 2023 18:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 18:18:16.726223
- Title: Extreme Image Transformations Affect Humans and Machines Differently
- Title(参考訳): 画像変換が人間と機械に異なる影響
- Authors: Girik Malik and Dakarai Crowder and Ennio Mingolla
- Abstract要約: 最近の人工ニューラルネットワーク(ANN)では、霊長類ニューラルネットと人間のパフォーマンスデータの側面をモデル化している。
神経生理学的な知見にインスパイアされた新しい画像変換のセットを導入し、物体認識タスクにおいて人間とANNを評価する。
機械は、特定の変換のために人間よりも優れた性能を示し、人間にとって容易な他者と同等の性能を発揮するのに苦労する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Some recent artificial neural networks (ANNs) claim to model aspects of
primate neural and human performance data. Their success in object recognition
is, however, dependent on exploiting low-level features for solving visual
tasks in a way that humans do not. As a result, out-of-distribution or
adversarial input is often challenging for ANNs. Humans instead learn abstract
patterns and are mostly unaffected by many extreme image distortions. We
introduce a set of novel image transforms inspired by neurophysiological
findings and evaluate humans and ANNs on an object recognition task. We show
that machines perform better than humans for certain transforms and struggle to
perform at par with humans on others that are easy for humans. We quantify the
differences in accuracy for humans and machines and find a ranking of
difficulty for our transforms for human data. We also suggest how certain
characteristics of human visual processing can be adapted to improve the
performance of ANNs for our difficult-for-machines transforms.
- Abstract(参考訳): 最近の人工ニューラルネットワーク(ANN)では、霊長類の神経と人間のパフォーマンスデータの側面をモデル化している。
しかし、オブジェクト認識の成功は、人間がしない方法で視覚タスクを解決するために低レベルの機能を活用することに依存している。
結果として、ANNにとってアウト・オブ・ディストリビューションや逆入力はしばしば困難である。
人間は抽象的なパターンを学習し、多くの極端な画像歪みに影響されない。
神経生理学的な知見にインスパイアされた新しい画像変換のセットを導入し、物体認識タスクにおいて人間とANNを評価する。
機械は、特定の変換のために人間よりも優れた性能を示し、人間にとって容易な他者と同等の性能を発揮するのに苦労する。
我々は、人間と機械の精度の違いを定量化し、人間のデータに対する変換の難易度ランキングを求める。
また,人間の視覚処理の特徴が,難易度変換のためのANNの性能向上にどのように適応できるかを示唆する。
関連論文リスト
- HINT: Learning Complete Human Neural Representations from Limited Viewpoints [69.76947323932107]
我々は、限られた視野角から詳細な人間のモデルを学習できるNeRFベースのアルゴリズムを提案する。
その結果,数個の視角からでも完全な人間の再構築が可能となり,性能は15%以上向上した。
論文 参考訳(メタデータ) (2024-05-30T05:43:09Z) - UniHuman: A Unified Model for Editing Human Images in the Wild [49.896715833075106]
実環境における画像編集の複数の側面に対処する統一モデルUniHumanを提案する。
モデルの生成品質と一般化能力を向上させるために,人間の視覚エンコーダからのガイダンスを利用する。
ユーザスタディでは、UniHumanは平均して77%のケースでユーザに好まれる。
論文 参考訳(メタデータ) (2023-12-22T05:00:30Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - Guiding Visual Attention in Deep Convolutional Neural Networks Based on
Human Eye Movements [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、当初は生物学的ビジョンの原理にインスパイアされていた。
近年のディープラーニングの進歩は、この類似性を減らしているようだ。
有用なモデルを得るための純粋にデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2022-06-21T17:59:23Z) - Robustness of Humans and Machines on Object Recognition with Extreme
Image Transformations [0.0]
物体認識タスクにおいて、画像変換の新たなセットを導入し、人間とネットワークの評価を行う。
人間は高い精度で物体を認識できる一方で、いくつかの共通ネットワークの性能は急速に低下することがわかった。
論文 参考訳(メタデータ) (2022-05-09T17:15:54Z) - Ultrafast Image Categorization in Biology and Neural Models [0.0]
生態学的に人間に関係のある2つの独立したタスクについて,標準VGG 16 CNNを再訓練した。
ネットワークの再トレーニングは、精神物理学的なタスクで報告されたのに匹敵する、人間のようなパフォーマンスのレベルを達成することを示す。
論文 参考訳(メタデータ) (2022-05-07T11:19:40Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z) - Deformable Convolutional LSTM for Human Body Emotion Recognition [0.0]
我々は、GEMデータセットの実験を行い、人体全体の感情認識のタスクにおいて、最先端の精度98.8%を達成した。
変形可能な動作を畳み込み長短期記憶(ConvLSTM)のコアに組み込んで、画像中のこれらの変形に対するロバスト性を改善する。
論文 参考訳(メタデータ) (2020-10-27T21:01:09Z) - Salient Facial Features from Humans and Deep Neural Networks [2.5211876507510724]
顔の分類に人間や畳み込みニューラルネットワーク(ConvNet)が利用する特徴について検討する。
我々は、特定の個人を特定する際に最もConvNetの出力に影響を与える顔の特徴を可視化するために、ガイドバックプロパゲーション(GB)を使用する。
論文 参考訳(メタデータ) (2020-03-08T22:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。