論文の概要: Solving ARC visual analogies with neural embeddings and vector
arithmetic: A generalized method
- arxiv url: http://arxiv.org/abs/2311.08083v1
- Date: Tue, 14 Nov 2023 11:10:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 14:26:47.153831
- Title: Solving ARC visual analogies with neural embeddings and vector
arithmetic: A generalized method
- Title(参考訳): ニューラル埋め込みとベクトル算術によるARC視覚類似の解法:一般化された方法
- Authors: Luca H. Thoms, Karel A. Veldkamp, Hannes Rosenbusch and Claire E.
Stevenson
- Abstract要約: アナロジカル推論は、既知の関係から情報を導き出し、この情報を類似しているが馴染みの無い状況に一般化する。
深層学習モデルが動詞の類似を解くことができる最初の一般化された方法の1つは、単語埋め込みのベクトル算術によるものであった。
本研究は,視覚的類似推論に焦点をあて,視覚領域の言語的類似を解くために用いられる初期一般化メカニズムを適用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analogical reasoning derives information from known relations and generalizes
this information to similar yet unfamiliar situations. One of the first
generalized ways in which deep learning models were able to solve verbal
analogies was through vector arithmetic of word embeddings, essentially
relating words that were mapped to a vector space (e.g., king - man + woman =
__?). In comparison, most attempts to solve visual analogies are still
predominantly task-specific and less generalizable. This project focuses on
visual analogical reasoning and applies the initial generalized mechanism used
to solve verbal analogies to the visual realm. Taking the Abstraction and
Reasoning Corpus (ARC) as an example to investigate visual analogy solving, we
use a variational autoencoder (VAE) to transform ARC items into low-dimensional
latent vectors, analogous to the word embeddings used in the verbal approaches.
Through simple vector arithmetic, underlying rules of ARC items are discovered
and used to solve them. Results indicate that the approach works well on simple
items with fewer dimensions (i.e., few colors used, uniform shapes), similar
input-to-output examples, and high reconstruction accuracy on the VAE.
Predictions on more complex items showed stronger deviations from expected
outputs, although, predictions still often approximated parts of the item's
rule set. Error patterns indicated that the model works as intended. On the
official ARC paradigm, the model achieved a score of 2% (cf. current world
record is 21%) and on ConceptARC it scored 8.8%. Although the methodology
proposed involves basic dimensionality reduction techniques and standard vector
arithmetic, this approach demonstrates promising outcomes on ARC and can easily
be generalized to other abstract visual reasoning tasks.
- Abstract(参考訳): アナロジカル推論は、既知の関係から情報を導き出し、この情報をよく知らない状況に一般化する。
深層学習モデルが動詞の類似を解くための最初の一般化された方法の1つは、単語埋め込みのベクトル算術によって、本質的にはベクトル空間にマッピングされた単語(例えば、王 - 男 + 女性 = __?
対照的に、視覚アナロジーの解こうとするほとんどの試みは依然としてタスク固有であり、一般化できない。
本研究は,視覚的類似推論に焦点をあて,視覚領域の言語的類似を解くために用いられる初期一般化メカニズムを適用した。
抽象推論コーパス (ARC) を視覚的類似解の例として用い, 変分オートエンコーダ (VAE) を用いて, ARC 項目を低次元潜在ベクトルに変換する。
単純なベクトル算術により、ARC項目の基本的な規則が発見され、それらを解決するために使用される。
提案手法は, 少ない寸法(色数, 均一な形状, 類似の入出力例, VAEの高精度化など)の単純な項目に対して有効であることを示す。
より複雑な項目の予測は、期待された出力とより強いずれを示したが、予測はしばしばアイテムのルールセットの一部を近似した。
エラーパターンは、モデルが意図通り動作することを示している。
公式のARCパラダイムでは、このモデルは2%のスコア(現在の世界記録は21%)を獲得し、ConceptARCでは8.8%を記録した。
提案手法は,基本的な次元削減手法と標準ベクトル算術を含むが,提案手法はARC上で有望な結果を示し,他の抽象的視覚的推論タスクに容易に一般化できる。
関連論文リスト
- Tackling the Abstraction and Reasoning Corpus (ARC) with Object-centric
Models and the MDL Principle [0.0]
本稿では,人間による自然プログラムに則ったオブジェクト中心モデルを提案する。
我々のモデルは、予測を行うだけでなく、入力/出力ペアに対する共同記述を提供する。
多様なタスクが解決され、学習されたモデルは自然プログラムと類似している。
論文 参考訳(メタデータ) (2023-11-01T14:25:51Z) - LLMs and the Abstraction and Reasoning Corpus: Successes, Failures, and
the Importance of Object-based Representations [50.431003245201644]
GPT-4 は 1D-ARC や単純な ARC サブセットのような非言語領域で完全に「推論」できないことを示す。
本稿では,外部ツールから得られるオブジェクトベース表現を提案する。これにより,解決されたARCタスクのパフォーマンスがほぼ倍増し,より簡単な1D-ARC上でのほぼ完璧なスコアが得られた。
論文 参考訳(メタデータ) (2023-05-26T16:32:17Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - How do Variational Autoencoders Learn? Insights from Representational
Similarity [2.969705152497174]
本研究では,変分オートエンコーダ(VAE)の内部挙動を表現的類似性手法を用いて検討する。
CKAとProcrustesの類似性を用いて,エンコーダの表現はデコーダよりもずっと前から学習されていることがわかった。
論文 参考訳(メタデータ) (2022-05-17T14:31:57Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Learning Algebraic Representation for Systematic Generalization in
Abstract Reasoning [109.21780441933164]
推論における体系的一般化を改善するためのハイブリッドアプローチを提案する。
我々はRaven's Progressive Matrices (RPM) の抽象的空間時間課題に対する代数的表現を用いたプロトタイプを紹介する。
得られた代数的表現は同型によって復号化して解を生成することができることを示す。
論文 参考訳(メタデータ) (2021-11-25T09:56:30Z) - DiGS : Divergence guided shape implicit neural representation for
unoriented point clouds [36.60407995156801]
形状暗黙的神経表現(INR)は近年,形状解析や再構成作業に有効であることが示されている。
本稿では,通常のベクトルを入力として必要としない分岐ガイド型形状表現学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T02:10:03Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Improving Aspect-based Sentiment Analysis with Gated Graph Convolutional
Networks and Syntax-based Regulation [89.38054401427173]
Aspect-based Sentiment Analysis (ABSA) は、特定の側面に向けて文の感情極性を予測する。
依存関係ツリーは、ABSAの最先端のパフォーマンスを生成するために、ディープラーニングモデルに統合することができる。
本稿では,この2つの課題を克服するために,グラフに基づく新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2020-10-26T07:36:24Z) - Analyzing Knowledge Graph Embedding Methods from a Multi-Embedding
Interaction Perspective [3.718476964451589]
実世界の知識グラフは通常不完全であるため、この問題に対処するために知識グラフ埋め込み法が提案されている。
これらの方法は、実体と関係を意味空間に埋め込まれたベクトルとして表現し、それらの間のリンクを予測する。
四元数代数に基づく新しいマルチエンベディングモデルを提案し、人気のあるベンチマークを用いて有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2019-03-27T13:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。