論文の概要: Exploring The Spatial Reasoning Ability of Neural Models in Human IQ
Tests
- arxiv url: http://arxiv.org/abs/2004.05352v1
- Date: Sat, 11 Apr 2020 09:41:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 09:59:43.533728
- Title: Exploring The Spatial Reasoning Ability of Neural Models in Human IQ
Tests
- Title(参考訳): ヒトIQテストにおけるニューラルモデルの空間推論能力の探索
- Authors: Hyunjae Kim, Yookyung Koh, Jinheon Baek, Jaewoo Kang
- Abstract要約: 我々は,空間的推論に注目し,ニューラルモデルの空間的理解を探究する。
さまざまな複雑性レベルからなるデータセットを構築しました。
モデルの一般化能力に影響を与える結果と要因について分析する。
- 参考スコア(独自算出の注目度): 19.338539583910023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although neural models have performed impressively well on various tasks such
as image recognition and question answering, their reasoning ability has been
measured in only few studies. In this work, we focus on spatial reasoning and
explore the spatial understanding of neural models. First, we describe the
following two spatial reasoning IQ tests: rotation and shape composition. Using
well-defined rules, we constructed datasets that consist of various complexity
levels. We designed a variety of experiments in terms of generalization, and
evaluated six different baseline models on the newly generated datasets. We
provide an analysis of the results and factors that affect the generalization
abilities of models. Also, we analyze how neural models solve spatial reasoning
tests with visual aids. Our findings would provide valuable insights into
understanding a machine and the difference between a machine and human.
- Abstract(参考訳): ニューラルモデルは画像認識や質問応答などの様々なタスクで顕著に機能しているが、その推論能力はわずかに研究されていない。
本研究では,空間的推論に着目し,ニューラルモデルの空間的理解を探究する。
まず, 回転と形状合成の2つの空間推論iqテストについて述べる。
明確に定義されたルールを用いて、さまざまな複雑さレベルからなるデータセットを構築しました。
一般化の観点から様々な実験を考案し,新たに生成されたデータセット上で6種類のベースラインモデルを評価した。
モデルの一般化能力に影響を与える結果と要因の分析を行う。
また、ニューラルモデルが視覚支援を用いて空間推論テストの解決方法も分析する。
私たちの発見は、機械の理解と機械と人間の違いに関する貴重な洞察を与えてくれるでしょう。
関連論文リスト
- Don't Cut Corners: Exact Conditions for Modularity in Biologically Inspired Representations [52.48094670415497]
我々は、生物にインスパイアされた表現が、ソース変数(ソース)に関してモジュール化されるときの理論を開発する。
我々は、最適な生物学的にインスパイアされたリニアオートエンコーダのニューロンがモジュラー化されるかどうかを判断する情報源のサンプルに対して、必要かつ十分な条件を導出する。
我々の理論はどんなデータセットにも当てはまり、以前の研究で研究された統計的な独立性よりもはるかに長い。
論文 参考訳(メタデータ) (2024-10-08T17:41:37Z) - The Topology and Geometry of Neural Representations [13.050815711184821]
神経科学における中心的な問題は、知覚的および認知的内容の脳表現をどう特徴付けるかである。
従来の研究は、その表現幾何学によって脳の表現を特徴づけてきた。
本稿では,表現類似性分析の拡張であるトポロジカル表現類似性解析(tRSA)を提案する。
シミュレーションとfMRIデータの両方を用いて、モデル選択の感度と特異性の観点から、この新しい統計群を評価する。
論文 参考訳(メタデータ) (2023-09-20T03:15:11Z) - Evaluating alignment between humans and neural network representations in image-based learning tasks [5.657101730705275]
トレーニング済みの860ドルのニューラルネットワークモデルの表現が、人間の学習軌跡にどのようにマッピングされているかテストしました。
トレーニングデータセットのサイズは人間の選択に沿った中核的な決定要因であるのに対し、マルチモーダルデータ(テキストと画像)による対照的なトレーニングは、人間の一般化を予測するために現在公開されているモデルの一般的な特徴であることがわかった。
結論として、事前訓練されたニューラルネットワークは、タスク間で伝達可能な認知の基本的な側面を捉えているように見えるため、認知モデルのための表現を抽出するのに役立つ。
論文 参考訳(メタデータ) (2023-06-15T08:18:29Z) - Spatiotemporal Patterns in Neurobiology: An Overview for Future
Artificial Intelligence [0.0]
我々は,ネットワーク相互作用から生じる機能を明らかにする上で,計算モデルが重要なツールであると主張している。
ここでは、スパイキングニューロン、統合ニューロン、発火ニューロンを含むいくつかのモデルのクラスについてレビューする。
これらの研究は、人工知能アルゴリズムの今後の発展と、脳のプロセスの理解の検証に役立つことを願っている。
論文 参考訳(メタデータ) (2022-03-29T10:28:01Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Learning identifiable and interpretable latent models of
high-dimensional neural activity using pi-VAE [10.529943544385585]
本稿では,潜在モデルと従来のニューラルエンコーディングモデルから重要な要素を統合する手法を提案する。
我々の手法であるpi-VAEは、同定可能な変分自動エンコーダの最近の進歩にインスパイアされている。
人工データを用いてpi-VAEを検証し,それをラット海馬およびマカク運動野の神経生理学的データセットの解析に応用した。
論文 参考訳(メタデータ) (2020-11-09T22:00:38Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。