論文の概要: Zero-shot visual reasoning through probabilistic analogical mapping
- arxiv url: http://arxiv.org/abs/2209.15087v1
- Date: Thu, 29 Sep 2022 20:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 14:20:56.009398
- Title: Zero-shot visual reasoning through probabilistic analogical mapping
- Title(参考訳): 確率的アナロジーマッピングによるゼロショット視覚推論
- Authors: Taylor W. Webb, Shuhao Fu, Trevor Bihl, Keith J. Holyoak, and Hongjing
Lu
- Abstract要約: 視覚的確率論的アナロジカルマッピング(visual Probabilistic Analogical Mapping)は2つのアプローチを合成する視覚的推論のモデルである。
直接学習なしでは、VisiPAMはアナログマッピングタスクにおいて最先端のディープラーニングモデルよりも優れていることを示す。
さらに,ビジパムは,異なるカテゴリにまたがる3Dオブジェクトのマッピングを含む新しいタスクにおいて,人間のパフォーマンスパターンと密に一致している。
- 参考スコア(独自算出の注目度): 2.049767929976436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human reasoning is grounded in an ability to identify highly abstract
commonalities governing superficially dissimilar visual inputs. Recent efforts
to develop algorithms with this capacity have largely focused on approaches
that require extensive direct training on visual reasoning tasks, and yield
limited generalization to problems with novel content. In contrast, a long
tradition of research in cognitive science has focused on elucidating the
computational principles underlying human analogical reasoning; however, this
work has generally relied on manually constructed representations. Here we
present visiPAM (visual Probabilistic Analogical Mapping), a model of visual
reasoning that synthesizes these two approaches. VisiPAM employs learned
representations derived directly from naturalistic visual inputs, coupled with
a similarity-based mapping operation derived from cognitive theories of human
reasoning. We show that without any direct training, visiPAM outperforms a
state-of-the-art deep learning model on an analogical mapping task. In
addition, visiPAM closely matches the pattern of human performance on a novel
task involving mapping of 3D objects across disparate categories.
- Abstract(参考訳): 人間の推論は、表面的に異質な視覚入力を管理する高度に抽象的な共通点を識別する能力に基礎を置いている。
この能力でアルゴリズムを開発するための最近の取り組みは、視覚的推論タスクの広範な直接訓練を必要とするアプローチに重点を置いており、新しいコンテンツの問題に限定的な一般化をもたらす。
対照的に、認知科学における長い研究の伝統は、人間の類推的推論に基づく計算原理の解明に焦点を合わせてきたが、この研究は一般に手作業による表現に依存してきた。
本稿では、これらの2つのアプローチを合成する視覚的推論モデルであるVisiPAM(visual Probabilistic Analogical Mapping)を提案する。
VisiPAMは、自然主義的な視覚入力から直接派生した学習表現と、人間推論の認知理論から派生した類似性に基づくマッピング操作を用いる。
直接学習なしでは、VisiPAMはアナログマッピングタスクにおいて最先端のディープラーニングモデルよりも優れていることを示す。
さらに,ビジパムは,異なるカテゴリにまたがる3Dオブジェクトのマッピングを含む新しいタスクにおいて,人間のパフォーマンスパターンと密に一致している。
関連論文リスト
- Dual Thinking and Perceptual Analysis of Deep Learning Models using Human Adversarial Examples [5.022336433202968]
視覚における双対思考の知覚は、直感的および論理的処理からの推論が異なるイメージを必要とする。
我々は、人間の視覚における二重思考の枠組みの証拠を提供するために、敵対的データセットを導入する。
また,人間の視覚の計算モデルとして分類モデルを用いた場合の批判についても検討した。
論文 参考訳(メタデータ) (2024-06-11T05:50:34Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Motion Mapping Cognition: A Nondecomposable Primary Process in Human
Vision [2.7195102129095003]
基本的な認知過程である運動マッピング認知(MMC)は、人間の視覚において、分解不能な一次機能であるべきである。
MMCは、人間の視覚機能の大部分を基本的に説明するために使用することができるが、従来の視覚処理方法によって効果的にモデル化することはできない。
私は、MCCは、人間の視覚に対するChenのトポロジカルな認識の延長と見なされ、既存のインテリジェントアルゴリズムスキルでは解決不可能であると考えている。
論文 参考訳(メタデータ) (2024-02-02T10:11:25Z) - Advancing Ante-Hoc Explainable Models through Generative Adversarial Networks [24.45212348373868]
本稿では,視覚的分類タスクにおけるモデル解釈可能性と性能を向上させるための新しい概念学習フレームワークを提案する。
本手法では, 教師なし説明生成器を一次分類器ネットワークに付加し, 対角訓練を利用する。
この研究は、タスク整合概念表現を用いた本質的に解釈可能なディープビジョンモデルを構築するための重要なステップを示す。
論文 参考訳(メタデータ) (2024-01-09T16:16:16Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - In-Context Analogical Reasoning with Pre-Trained Language Models [10.344428417489237]
我々は、AIシステムにおけるアナロジーを支援するために、直感的な言語ベースの抽象化の使用について検討する。
具体的には,大規模事前学習言語モデル(PLM)を視覚的Raven's Progressive Matrices(RPM)に適用する。
PLMはゼロショットリレーショナル推論に顕著な能力を示し、人間のパフォーマンスを超え、教師付き視覚ベースの手法に近づいた。
論文 参考訳(メタデータ) (2023-05-28T04:22:26Z) - Guiding Visual Attention in Deep Convolutional Neural Networks Based on
Human Eye Movements [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、当初は生物学的ビジョンの原理にインスパイアされていた。
近年のディープラーニングの進歩は、この類似性を減らしているようだ。
有用なモデルを得るための純粋にデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2022-06-21T17:59:23Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Causal Navigation by Continuous-time Neural Networks [108.84958284162857]
本研究では,連続時間ニューラルネットワークを用いた因果表現学習のための理論的,実験的枠組みを提案する。
本手法は,ドローンの視覚制御学習の文脈において,一連の複雑なタスクにおいて評価する。
論文 参考訳(メタデータ) (2021-06-15T17:45:32Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。