論文の概要: MindSet: Vision. A toolbox for testing DNNs on key psychological experiments
- arxiv url: http://arxiv.org/abs/2404.05290v1
- Date: Mon, 8 Apr 2024 08:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 18:41:48.757859
- Title: MindSet: Vision. A toolbox for testing DNNs on key psychological experiments
- Title(参考訳): MindSet: Vision.DNNを重要な心理実験でテストするためのツールボックス
- Authors: Valerio Biscione, Dong Yin, Gaurav Malhotra, Marin Dujmovic, Milton L. Montero, Guillermo Puebla, Federico Adolfi, Rachel F. Heaton, John E. Hummel, Benjamin D. Evans, Karim Habashy, Jeffrey S. Bowers,
- Abstract要約: 我々は、30の心理的発見に基づいてディープニューラルネットワーク(DNN)をテストするために設計された画像データセットと関連するスクリプトの集合からなるツールボックスMindSet: Visionを紹介した。
すべての実験条件において、刺激は、人間の視覚知覚と物体認識に関する特定の仮説をテストするために体系的に操作される。
- 参考スコア(独自算出の注目度): 9.166541973038992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiple benchmarks have been developed to assess the alignment between deep neural networks (DNNs) and human vision. In almost all cases these benchmarks are observational in the sense they are composed of behavioural and brain responses to naturalistic images that have not been manipulated to test hypotheses regarding how DNNs or humans perceive and identify objects. Here we introduce the toolbox MindSet: Vision, consisting of a collection of image datasets and related scripts designed to test DNNs on 30 psychological findings. In all experimental conditions, the stimuli are systematically manipulated to test specific hypotheses regarding human visual perception and object recognition. In addition to providing pre-generated datasets of images, we provide code to regenerate these datasets, offering many configurable parameters which greatly extend the dataset versatility for different research contexts, and code to facilitate the testing of DNNs on these image datasets using three different methods (similarity judgments, out-of-distribution classification, and decoder method), accessible at https://github.com/MindSetVision/mindset-vision. We test ResNet-152 on each of these methods as an example of how the toolbox can be used.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)と人間のビジョンのアライメントを評価するために、複数のベンチマークが開発されている。
ほとんどすべてのケースにおいて、これらのベンチマークは、DNNや人間がどのようにオブジェクトを知覚し、識別するかの仮説をテストするために操作されていない自然主義的なイメージに対する行動と脳の反応からなるという意味で観察的である。
ここでは、30の心理的発見に基づいてDNNをテストするために設計された画像データセットと関連するスクリプトの集合からなるツールボックスMindSet: Visionを紹介する。
すべての実験条件において、刺激は、人間の視覚知覚と物体認識に関する特定の仮説をテストするために体系的に操作される。
画像の事前生成データセットの提供に加えて、さまざまな研究コンテキストに対してデータセットの汎用性を大幅に拡張する多くの設定可能なパラメータや、https://github.com/MindSetVision/mindset-vision.com/mindSetVision/mindset-visionでアクセス可能な3つの異なる方法(類似性判定、アウト・オブ・ディストリビューション分類、デコーダメソッド)を使用して、これらのデータセット上でDNNのテストを容易にするコードを提供しています。
これらのメソッドでResNet-152をテストし、ツールボックスの使い方の例を示します。
関連論文リスト
- Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Towards Fair and Comprehensive Comparisons for Image-Based 3D Object
Detection [73.32210225999056]
モジュール設計と3Dオブジェクト検出のための統一的なトレーニング標準の構築を行う。
また,検出モデルの詳細な特徴を評価するために,誤り診断ツールボックスを設計する。
論文 参考訳(メタデータ) (2023-10-09T06:43:48Z) - M3Dsynth: A dataset of medical 3D images with AI-generated local
manipulations [10.20962191915879]
M3DsynthはCT(Computed Tomography)肺画像の大規模なデータセットである。
実際のCTで肺がん結節を注入または除去することにより,操作画像を作成する。
実験の結果、これらの画像は簡単に自動診断ツールを騙すことが判明した。
論文 参考訳(メタデータ) (2023-09-14T18:16:58Z) - Harmonizing the object recognition strategies of deep neural networks
with humans [10.495114898741205]
最先端のディープニューラルネットワーク(DNN)は、精度が向上するにつれて、人間との整合性が低下していることを示す。
我々の研究は、現在DNNの設計を導くスケーリング法則が、人間の視覚を悪化させるモデルを生み出した最初の例である。
論文 参考訳(メタデータ) (2022-11-08T20:03:49Z) - Net2Brain: A Toolbox to compare artificial vision models with human
brain responses [11.794563225903813]
グラフィカルおよびコマンドラインのユーザインターフェースツールボックスであるNet2Brainを紹介する。
人工深層ニューラルネットワーク(DNN)と人間の脳記録の表現空間を比較する。
我々はNet2Brainの機能と利点を、認知計算神経科学の仮説の検証にどのように使えるかを示す例で示す。
論文 参考訳(メタデータ) (2022-08-20T13:10:28Z) - Saccade Mechanisms for Image Classification, Object Detection and
Tracking [12.751552698602744]
生体視覚からのササード機構を用いて、ディープニューラルネットワークを分類や物体検出の問題をより効率的にする方法について検討する。
提案手法は、注意駆動型視覚処理とササードのアイデアに基づいており、注意に影響された眼球運動のミニチュア化を図っている。
論文 参考訳(メタデータ) (2022-06-10T13:50:34Z) - Novelty-based Generalization Evaluation for Traffic Light Detection [13.487711023133764]
独立テストデータセット上で様々なメトリクスを計算することにより,畳み込みニューラルネットワーク(CNN)の一般化能力を評価する。
テストデータセットにおけるオブジェクトの新規性を考慮したCNN一般化スコアリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-03T09:23:56Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。