論文の概要: Systematic Visual Reasoning through Object-Centric Relational
Abstraction
- arxiv url: http://arxiv.org/abs/2306.02500v2
- Date: Fri, 10 Nov 2023 22:22:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 21:43:01.564352
- Title: Systematic Visual Reasoning through Object-Centric Relational
Abstraction
- Title(参考訳): オブジェクト中心関係抽象化による系統的視覚的推論
- Authors: Taylor W. Webb, Shanka Subhra Mondal, Jonathan D. Cohen
- Abstract要約: 対象と抽象的関係の明示的な表現を抽出するモデルであるOCRAを紹介する。
複雑な視覚ディスプレイを含むタスクにおいて、強力な体系的な一般化を実現する。
- 参考スコア(独自算出の注目度): 5.914610036560008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human visual reasoning is characterized by an ability to identify abstract
patterns from only a small number of examples, and to systematically generalize
those patterns to novel inputs. This capacity depends in large part on our
ability to represent complex visual inputs in terms of both objects and
relations. Recent work in computer vision has introduced models with the
capacity to extract object-centric representations, leading to the ability to
process multi-object visual inputs, but falling short of the systematic
generalization displayed by human reasoning. Other recent models have employed
inductive biases for relational abstraction to achieve systematic
generalization of learned abstract rules, but have generally assumed the
presence of object-focused inputs. Here, we combine these two approaches,
introducing Object-Centric Relational Abstraction (OCRA), a model that extracts
explicit representations of both objects and abstract relations, and achieves
strong systematic generalization in tasks (including a novel dataset,
CLEVR-ART, with greater visual complexity) involving complex visual displays.
- Abstract(参考訳): 人間の視覚的推論は、少数の例から抽象パターンを識別し、これらのパターンを体系的に新しい入力に一般化する能力によって特徴づけられる。
この能力は、オブジェクトとリレーションの両方の観点から複雑な視覚入力を表現する能力に大きく依存します。
近年のコンピュータビジョンの研究で、オブジェクト中心の表現を抽出する能力を持つモデルが導入され、マルチオブジェクトの視覚入力を処理できるようになったが、人間の推論による体系的な一般化には及ばなかった。
他のモデルでは、学習された抽象ルールの体系的一般化を達成するために、関係抽象のための帰納的バイアスを用いるが、一般にオブジェクト指向の入力の存在を仮定している。
本稿では、これら2つのアプローチを組み合わせて、オブジェクトと抽象関係の明示的な表現を抽出し、複雑な視覚表示を含むタスク(新しいデータセット、CLEVR-ARTを含む)において、強力な体系的一般化を実現するモデル、OCR(Object-Centric Relational Abstraction)を導入する。
関連論文リスト
- VisualPredicator: Learning Abstract World Models with Neuro-Symbolic Predicates for Robot Planning [86.59849798539312]
本稿では,記号的・神経的知識表現の強みを組み合わせた一階抽象言語Neuro-Symbolic Predicatesを提案する。
提案手法は, サンプルの複雑さの向上, 分布外一般化の強化, 解釈可能性の向上を実現する。
論文 参考訳(メタデータ) (2024-10-30T16:11:05Z) - Abstraction Alignment: Comparing Model and Human Conceptual Relationships [26.503178592074757]
モデルが学習した抽象と期待される人間の抽象との一致を測定する手法である抽象アライメントを導入する。
評価タスクでは、抽象化アライメントがモデルの振る舞いとデータセットの内容をより深く理解します。
論文 参考訳(メタデータ) (2024-07-17T13:27:26Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Slot Abstractors: Toward Scalable Abstract Visual Reasoning [5.262577780347204]
Slot Abstractorsは、多数のオブジェクトと複数の関連性を含む問題にスケールできる、抽象的な視覚的推論のアプローチである。
このアプローチでは、4つの抽象的な視覚的推論タスクにまたがる最先端のパフォーマンスと、現実世界の画像を含む抽象的な推論タスクを表示する。
論文 参考訳(メタデータ) (2024-03-06T04:49:02Z) - Emergence and Function of Abstract Representations in Self-Supervised
Transformers [0.0]
本研究では,部分的にマスキングされた視覚シーンを再構築するために訓練された小型トランスフォーマーの内部動作について検討する。
ネットワークは、データセットのすべての意味的特徴をエンコードする中間抽象表現(抽象表現)を開発する。
正確な操作実験を用いて、抽象化がネットワークの意思決定プロセスの中心であることを実証する。
論文 参考訳(メタデータ) (2023-12-08T20:47:15Z) - FACT: Learning Governing Abstractions Behind Integer Sequences [7.895232155155041]
完全なフィニシャルな記述を認める概念の学習に関する新しい見解を紹介する。
機械学習モデルによる概念理解を目的としたベンチマークタスクのセットを配置する。
知識表現と推論の研究をさらに支援するため,FACT(Finitary Abstraction Toolkit)を提案する。
論文 参考訳(メタデータ) (2022-09-20T08:20:03Z) - Abstract Interpretation for Generalized Heuristic Search in Model-Based
Planning [50.96320003643406]
ドメイン・ジェネラル・モデル・ベース・プランナーは、しばしば記号的世界モデルの緩和を通じて探索を構築することによって一般性を導出する。
抽象解釈がこれらの抽象化の統一フレームワークとして機能し、よりリッチな世界モデルに探索の範囲を広げる方法について説明する。
また、これらは学習と統合することができ、エージェントは抽象的な情報を通じて、新しい世界のモデルで計画を開始することができる。
論文 参考訳(メタデータ) (2022-08-05T00:22:11Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Constellation: Learning relational abstractions over objects for
compositional imagination [64.99658940906917]
静的な視覚シーンのリレーショナル抽象化を学習するネットワークであるConstellationを紹介する。
この研究は、視覚的関係を明確に表現し、それらを複雑な認知手続きに使用するための第一歩である。
論文 参考訳(メタデータ) (2021-07-23T11:59:40Z) - Hierarchical Relational Inference [80.00374471991246]
本稿では,物体を局所的に独立に振る舞うが,よりグローバルに一括して振る舞う部分の階層としてモデル化する物理推論手法を提案する。
従来の手法とは異なり,本手法は生画像から直接教師なしの方法で学習する。
複数のレベルの抽象化を明確に区別し、合成ビデオと実世界のビデオのモデリングにおいて、強力なベースラインを超えて改善する。
論文 参考訳(メタデータ) (2020-10-07T20:19:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。