論文の概要: Solving Raven's Progressive Matrices with Multi-Layer Relation Networks
- arxiv url: http://arxiv.org/abs/2003.11608v1
- Date: Wed, 25 Mar 2020 20:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:57:10.651437
- Title: Solving Raven's Progressive Matrices with Multi-Layer Relation Networks
- Title(参考訳): 多層関係ネットワークによるRavenの進行行列の解法
- Authors: Marius Jahrens and Thomas Martinetz
- Abstract要約: Raven's Progressive Matricesは、もともと人間の認知能力をテストするために設計されたベンチマークである。
最近では、機械学習システムにおけるリレーショナル推論のテストに適応している。
ここでは、ディープニューラルネットワークがこのベンチマークを解くことができ、98.0パーセントの精度に達することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Raven's Progressive Matrices are a benchmark originally designed to test the
cognitive abilities of humans. It has recently been adapted to test relational
reasoning in machine learning systems. For this purpose the so-called
Procedurally Generated Matrices dataset was set up, which is so far one of the
most difficult relational reasoning benchmarks. Here we show that deep neural
networks are capable of solving this benchmark, reaching an accuracy of 98.0
percent over the previous state-of-the-art of 62.6 percent by combining Wild
Relation Networks with Multi-Layer Relation Networks and introducing Magnitude
Encoding, an encoding scheme designed for late fusion architectures.
- Abstract(参考訳): Raven's Progressive Matricesは、もともと人間の認知能力をテストするために設計されたベンチマークである。
最近では、機械学習システムにおけるリレーショナル推論のテストに適応している。
この目的のために、いわゆるProcedurally Generated Matricesデータセットが設定され、これは今のところ最も難しいリレーショナル推論ベンチマークの1つである。
本稿では,このベンチマークをディープニューラルネットワークが解くことができることを示し,ワイルドリレーションネットワークと多層リレーショナルネットワークを組み合わせることで,従来の62.6パーセントよりも98.0パーセントの精度を達成し,後期融合アーキテクチャ用に設計されたエンコーディング方式であるマグニチュードエンコーディングを導入する。
関連論文リスト
- Consensus Learning with Deep Sets for Essential Matrix Estimation [12.363338401943887]
本稿では,Deep Setsに基づくよりシンプルなネットワークアーキテクチャを提案する。
提案手法は,不整点一致を同定し,不整点一致の変位雑音をモデル化する。
重み付きDLTモジュールはこれらの予測を使って必須行列を回帰する。
論文 参考訳(メタデータ) (2024-06-25T09:37:09Z) - Layer Ensemble Averaging for Improving Memristor-Based Artificial Neural Network Performance [0.6560901506023631]
memristorsのようなインメモリの計算アーキテクチャは、ハードウェアの非理想性によって、将来性はあるが課題に直面している。
レイヤアンサンブル平均化は、事前学習されたニューラルネットワークソリューションをソフトウェアから欠陥のあるハードウェアクロスバーにマッピングするテクニックである。
その結果、レイヤアンサンブル平均化は、ソフトウェアベースラインまで、欠陥のあるメモリネットワーク性能を確実に向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-04-24T03:19:31Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Towards Bi-directional Skip Connections in Encoder-Decoder Architectures
and Beyond [95.46272735589648]
本稿では,デコードされた機能をエンコーダに戻すための後方スキップ接続を提案する。
我々の設計は、任意のエンコーダ・デコーダアーキテクチャにおいて前方スキップ接続と共同で適用することができる。
本稿では,2相ニューラルネットワーク探索(NAS)アルゴリズム,すなわちBiX-NASを提案する。
論文 参考訳(メタデータ) (2022-03-11T01:38:52Z) - Parallel Machine Learning for Forecasting the Dynamics of Complex
Networks [0.0]
本稿では,大規模複雑ネットワークの力学を予測するための機械学習手法を提案する。
私たちは、関心のネットワークのトポロジを模倣する並列アーキテクチャを使用します。
論文 参考訳(メタデータ) (2021-08-27T06:06:41Z) - Creating Powerful and Interpretable Models withRegression Networks [2.2049183478692584]
本稿では,ニューラルネットワークのパワーと回帰分析の可視性を組み合わせた新しいアーキテクチャRegression Networksを提案する。
これらのモデルが,いくつかのベンチマークデータセット上での解釈可能なモデルの最先端性能を上回ることを実証する。
論文 参考訳(メタデータ) (2021-07-30T03:37:00Z) - Use square root affinity to regress labels in semantic segmentation [1.544681800932596]
本稿では,アフィニティ行列とラベルを関連付け,教師付き方法でアフィニティを利用する。
アフィニティ回帰損失(英: affinity regression loss、arlos)は、ペア間の類似性ペナルティを提供する補助的損失である。
我々のモデルは訓練が容易であり、実行時推論なしで計算負荷をほとんど加えない。
論文 参考訳(メタデータ) (2021-03-07T12:49:27Z) - Generalized Leverage Score Sampling for Neural Networks [82.95180314408205]
レバレッジスコアサンプリング(英: Leverage score sample)は、理論計算機科学に由来する強力な技術である。
本研究では、[Avron, Kapralov, Musco, Musco, Musco, Velingker, Zandieh 17] の結果をより広範なカーネルのクラスに一般化する。
論文 参考訳(メタデータ) (2020-09-21T14:46:01Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。