論文の概要: Perceptual-Score: A Psychophysical Measure for Assessing the Biological
Plausibility of Visual Recognition Models
- arxiv url: http://arxiv.org/abs/2210.08632v1
- Date: Sun, 16 Oct 2022 20:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:30:08.787171
- Title: Perceptual-Score: A Psychophysical Measure for Assessing the Biological
Plausibility of Visual Recognition Models
- Title(参考訳): 知覚スコア:視覚認識モデルの生物学的可視性を評価する心理学的尺度
- Authors: Brandon RichardWebster, Anthony DiFalco, Elisabetta Caldesi, Walter J.
Scheirer
- Abstract要約: 本稿では,視覚心理学に基づく新しい尺度Perceptual-Scoreを提案する。
生物学的なインスピレーションと複雑性の程度が異なる12のモデルで手順を実行する。
各モデルの知覚スコアは、最先端の神経活動ベースのメトリクスであるBrain-Scoreと比較される。
- 参考スコア(独自算出の注目度): 9.902669518047714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For the last decade, convolutional neural networks (CNNs) have vastly
superseded their predecessors in nearly all vision tasks in artificial
intelligence, including object recognition. However, in spite of abundant
advancements, they continue to pale in comparison to biological vision. This
chasm has prompted the development of biologically-inspired models that have
attempted to mimic the human visual system, primarily at a neural-level, which
are evaluated using standard dataset benchmarks. However, more work is needed
to understand how these models actually perceive the visual world. This article
proposes a state-of-the-art procedure that generates a new metric,
Perceptual-Score, which is grounded in visual psychophysics, and is capable of
reliably estimating perceptual responses across numerous models -- representing
a large range in complexity and biological inspiration. We perform the
procedure on twelve models that vary in degree of biological inspiration and
complexity, and compare the results against the aggregated results of 2,390
Amazon Mechanical Turk workers who together provided ~2.7 million perceptual
responses. Each model's Perceptual-Score is compared against the
state-of-the-art neural activity-based metric, Brain-Score. Our study indicates
that models with high correlation to human perceptual behavior also have high
correlation with the corresponding neural activity.
- Abstract(参考訳): 過去10年間、畳み込みニューラルネットワーク(CNN)は、物体認識を含む人工知能のほぼすべてのビジョンタスクにおいて、前任者を大きく置き換えてきた。
しかし、豊富な進歩にもかかわらず、彼らは生物学的なビジョンと比べて青ざめたままである。
このシャームは、人間の視覚システムを主に神経レベルで模倣しようとする生物学的にインスパイアされたモデルの開発を促し、標準のデータセットベンチマークを用いて評価されている。
しかし、これらのモデルが実際に視覚世界をどのように知覚するかを理解するためには、さらなる作業が必要である。
本稿では,視覚心理学に基礎を置き,様々なモデルにわたる知覚応答を確実に推定し,複雑さと生物学的インスピレーションの幅広い範囲を表現できる,新しい尺度Perceptual-Scoreを生成する最先端の手順を提案する。
生物学的なインスピレーションと複雑さの程度が異なる12のモデルで手続きを行い、約270万の知覚応答を提供した2,390人のamazon mechanical turk workersの集計結果と比較した。
各モデルの知覚スコアは、最先端の神経活動ベースのメトリクスであるBrain-Scoreと比較される。
本研究は、人間の知覚行動と高い相関を持つモデルが、対応する神経活動と高い相関を持つことを示している。
関連論文リスト
- Neural Dynamics Model of Visual Decision-Making: Learning from Human Experts [28.340344705437758]
視覚入力から行動出力まで,包括的な視覚的意思決定モデルを実装した。
我々のモデルは人間の行動と密接に一致し、霊長類の神経活動を反映する。
ニューロイメージング・インフォームド・ファインチューニング手法を導入し、モデルに適用し、性能改善を実現した。
論文 参考訳(メタデータ) (2024-09-04T02:38:52Z) - Brain-inspired Computational Modeling of Action Recognition with Recurrent Spiking Neural Networks Equipped with Reinforcement Delay Learning [4.9798155883849935]
行動認識は、その複雑な性質と、この分野における脳の異常なパフォーマンスのために大きな注目を集めている。
現在の行動認識のソリューションは、問題を効果的に解決する際の限界を示すか、必要な生物学的妥当性を欠くかのどちらかである。
本稿では,脳に触発された行動認識モデルを提案する。
論文 参考訳(メタデータ) (2024-06-17T17:34:16Z) - Modelling Human Visual Motion Processing with Trainable Motion Energy
Sensing and a Self-attention Network [1.9458156037869137]
本稿では,生体とコンピュータの視覚モデルとのギャップを埋めることで,人間の動作知覚のイメージ計算可能なモデルを提案する。
このモデルアーキテクチャは、生体視覚システムにおける運動知覚のコア構造であるV1-MTの計算を捉えることを目的としている。
サイリコ神経生理学では、我々のモデルの単位応答は、運動プーリングやスピードチューニングに関する哺乳類の神経記録に類似していることが明らかになっている。
論文 参考訳(メタデータ) (2023-05-16T04:16:07Z) - Guiding Visual Attention in Deep Convolutional Neural Networks Based on
Human Eye Movements [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、当初は生物学的ビジョンの原理にインスパイアされていた。
近年のディープラーニングの進歩は、この類似性を減らしているようだ。
有用なモデルを得るための純粋にデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2022-06-21T17:59:23Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z) - Seeing eye-to-eye? A comparison of object recognition performance in
humans and deep convolutional neural networks under image manipulation [0.0]
本研究では,ヒトとフィードフォワードニューラルネットワークの視覚コア物体認識性能の行動比較を目的とした。
精度分析の結果、人間はDCNNを全ての条件で上回るだけでなく、形状や色の変化に対する強い堅牢性も示している。
論文 参考訳(メタデータ) (2020-07-13T10:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。