論文の概要: The Scattering Compositional Learner: Discovering Objects, Attributes,
Relationships in Analogical Reasoning
- arxiv url: http://arxiv.org/abs/2007.04212v1
- Date: Wed, 8 Jul 2020 15:53:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 09:44:52.690446
- Title: The Scattering Compositional Learner: Discovering Objects, Attributes,
Relationships in Analogical Reasoning
- Title(参考訳): 散乱合成学習者:対象の発見,属性,アナロジカル推論における関連性
- Authors: Yuhuai Wu, Honghua Dong, Roger Grosse, Jimmy Ba
- Abstract要約: 我々は,Ran's Progressive Matrices (RPM) という,リッチな構成構造を含む類似推論タスクに焦点をあてる。
本稿では,ニューラルネットワークをシーケンスで構築するアーキテクチャであるSCLを提案する。
我々のSCLは2つのRPMデータセットで最先端のパフォーマンスを達成し、48.7%が Balanced-RAVENを、26.4%がPGMを改善した。
- 参考スコア(独自算出の注目度): 38.04865877838571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we focus on an analogical reasoning task that contains rich
compositional structures, Raven's Progressive Matrices (RPM). To discover
compositional structures of the data, we propose the Scattering Compositional
Learner (SCL), an architecture that composes neural networks in a sequence. Our
SCL achieves state-of-the-art performance on two RPM datasets, with a 48.7%
relative improvement on Balanced-RAVEN and 26.4% on PGM over the previous
state-of-the-art. We additionally show that our model discovers compositional
representations of objects' attributes (e.g., shape color, size), and their
relationships (e.g., progression, union). We also find that the compositional
representation makes the SCL significantly more robust to test-time domain
shifts and greatly improves zero-shot generalization to previously unseen
analogies.
- Abstract(参考訳): 本稿では,RPM(Raven's Progressive Matrices)という,リッチな構成構造を含む類似推論タスクに着目した。
そこで本研究では,データの構成構造を明らかにするために,ニューラルネットワークを逐次的に構成するscl(slicant compositional learner)を提案する。
我々のSCLは2つのRPMデータセットで最先端のパフォーマンスを達成し、48.7%が Balanced-RAVENを、26.4%がPGMを改善した。
さらに,本モデルでは,オブジェクトの属性(例えば,形状色,サイズ)とそれらの関係(例えば,進行,結合)の合成表現を検出する。
また、合成表現により、SCLはテスト時間領域シフトに対して著しく堅牢になり、以前は見つからなかったアナログに対してゼロショットの一般化を大幅に改善する。
関連論文リスト
- Cross-composition Feature Disentanglement for Compositional Zero-shot Learning [49.919635694894204]
合成ゼロショット学習(CZSL)において、プリミティブ(属性とオブジェクト)の視覚的特徴の歪みは例外的な結果を示した。
本稿では,複数のプリミティブ・シェアリング・コンポジションを入力とし,これらのコンポジションにまたがって一般化されるような不整合プリミティブ・コンポジションを制約するクロス・コンポジション・コンストラクション・ディエンタングルメントの解を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:23:09Z) - Anticipating Future Object Compositions without Forgetting [0.0]
本稿では,従来の知識を忘れることなく,オブジェクト検出における合成ゼロショット学習(CZSL)を強化することを目的とする。
我々は、Grounding DINOを使用し、コンポジション型ソフト・プロンプティング(CSP)を組み込んで、コンポジション型予測で拡張する。
本手法の有効性を実証し, プレトレイン, インクリメント, 不可視集合におけるHMの14.5%の増加を実現する。
論文 参考訳(メタデータ) (2024-07-15T13:49:31Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - When and why vision-language models behave like bags-of-words, and what
to do about it? [39.90099818890488]
我々は、VLMが様々な種類の関係、属性、順序を理解する能力を評価するために、属性、関係、順序のベンチマークを作成します。
AROは、以前の構成性のベンチマークよりも桁違いに大きく、5万以上のテストケースがある。
我々は、最先端のVLMが、リレーショナル理解が不十分で、オブジェクトを属性にリンクする場合に、ブルンダーが可能であることを示し、注文感度の深刻な欠如を示す。
論文 参考訳(メタデータ) (2022-10-04T22:13:25Z) - Relation Regularized Scene Graph Generation [206.76762860019065]
SGG(Scene Graph Generation)は、検出されたオブジェクトの上に構築され、オブジェクトのペアの視覚的関係を予測する。
本稿では,2つのオブジェクト間の関係を予測できる関係正規化ネットワーク(R2-Net)を提案する。
我々のR2-Netはオブジェクトラベルを効果的に洗練し、シーングラフを生成する。
論文 参考訳(メタデータ) (2022-02-22T11:36:49Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Nested Subspace Arrangement for Representation of Relational Data [6.59529078336196]
表現学習のための包括的フレームワークであるNested SubSpace (NSS)アレンジメントを導入する。
NSSアレンジメントの概念に基づいて,汎用グラフの再生に特化した表現学習手法を実装した。
数値実験により、DANCAR は WordNet を $mathbb R20$ に埋め込むことに成功した。
論文 参考訳(メタデータ) (2020-07-04T04:07:14Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。