論文の概要: Attracting Sets in Perceptual Networks
- arxiv url: http://arxiv.org/abs/2009.08101v1
- Date: Thu, 17 Sep 2020 06:46:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 11:41:43.425193
- Title: Attracting Sets in Perceptual Networks
- Title(参考訳): 知覚ネットワークにおける抽出集合
- Authors: Robert Prentner
- Abstract要約: この文書は[1]で使用されるモデルの仕様を提供します。
遺伝的アルゴリズムを用いて、入力と(ノイズの多い)ネットワークのアトラクタ間の相互情報を最適化する簡単な方法を提案する。
このシステムは「知覚ネットワーク」と呼ばれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This document gives a specification for the model used in [1]. It presents a
simple way of optimizing mutual information between some input and the
attractors of a (noisy) network, using a genetic algorithm. The nodes of this
network are modeled as simplified versions of the structures described in the
"interface theory of perception" [2]. Accordingly, the system is referred to as
a "perceptual network".
The present paper is an edited version of technical parts of [1] and serves
as accompanying text for the Python implementation PerceptualNetworks, freely
available under [3].
1. Prentner, R., and Fields, C.. Using AI methods to Evaluate a Minimal Model
for Perception. OpenPhilosophy 2019, 2, 503-524.
2. Hoffman, D. D., Prakash, C., and Singh, M.. The Interface Theory of
Perception. Psychonomic Bulletin and Review 2015, 22, 1480-1506.
3. Prentner, R.. PerceptualNetworks.
https://github.com/RobertPrentner/PerceptualNetworks. (accessed September 17
2020)
- Abstract(参考訳): この文書は[1]で使用されるモデルの仕様を提供します。
遺伝的アルゴリズムを用いて、ある入力と(ノイズ)ネットワークのアトラクタ間の相互情報を最適化する簡単な方法を提案する。
このネットワークのノードは、"interface theory of perception"で記述された構造の単純化版としてモデル化されている [2]。
したがって、このシステムは「知覚ネットワーク」と呼ばれる。
本稿では,[1] の技術部分の編集版であり,Python 実装である PerceptualNetworks の付属テキストとして機能し,[3] で自由に利用できる。
1. Prentner, R. and Fields, C.
.
AIメソッドを使用して知覚のための最小モデルを評価する。
OpenPhilosophy 2019, 2, 503-524。
2.ホフマン(d.d.)、プラカシュ(c.)、シン(m.)
.
知覚のインターフェイス理論。
サイコノミック・ブレティンとレビュー 2015, 22, 1480-1506。
3. prentner, r。
.
知覚ネットワーク
https://github.com/RobertPrentner/PerceptualNetworks
(2020年9月17日閲覧)
関連論文リスト
- Cooperative Graph Neural Networks [7.2459816681395095]
グラフニューラルネットワークのクラスは、標準的なメッセージパッシングパラダイムに従う。
本稿では,グラフニューラルネットワークをトレーニングするための新しいフレームワークを提案する。
私たちのアプローチは、より柔軟で動的なメッセージパッシングパラダイムを提供します。
論文 参考訳(メタデータ) (2023-10-02T15:08:52Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Towards Disentangling Information Paths with Coded ResNeXt [11.884259630414515]
ネットワーク全体の機能の透明性を高めるために,我々は新しいアプローチを採っている。
分類のためのニューラルネットワークアーキテクチャを提案し、各クラスに関連する情報が特定の経路を流れる。
論文 参考訳(メタデータ) (2022-02-10T21:45:49Z) - Vehicle: Interfacing Neural Network Verifiers with Interactive Theorem
Provers [1.5749416770494706]
車両には、ニューラルネットワーク仕様を記述するための表現力のあるドメイン固有言語が備わっている。
同様のITPの形式化において、保守性とスケーラビリティに関する過去の問題を克服しています。
ニューラルネットワーク検証器であるMarabouをAgdaに接続し、ニューラルネットワークで操縦された車が道路を離れないことを正式に検証することで、その実用性を実証する。
論文 参考訳(メタデータ) (2022-02-10T18:09:23Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - SDGNN: Learning Node Representation for Signed Directed Networks [43.15277366961127]
グラフニューラルネットワーク(gnns)は広く注目を集め、ノード表現の学習において最先端のパフォーマンスをもたらす。
これらのモデルを署名された有向ネットワークに転送するのは簡単なことではないが、実世界では広く観察されているが、あまり研究されていない。
我々は,符号付き有向ネットワークのノード埋め込みを学習するために,SDGNNと呼ばれる新しい符号付き有向グラフニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2021-01-07T06:15:07Z) - An Improved Dilated Convolutional Network for Herd Counting in Crowded
Scenes [1.7358040670413502]
本稿では,2つの双方向畳み込み型ディープラーニングアーキテクチャからなる正確なモニタリングシステムを提案する。
提案モデルでは,最先端手法よりも30%高速に収束することが示されている。
上海データセットに適用すると、平均絶対誤差(MAE)が20%低い。
論文 参考訳(メタデータ) (2020-08-17T12:31:10Z) - CSNE: Conditional Signed Network Embedding [77.54225346953069]
署名されたネットワークは、友人/フォアや信頼/不信のようなエンティティ間の正と負の関係を符号化する。
サイン予測のための既存の埋め込み手法は、一般に最適化関数におけるステータスやバランス理論の異なる概念を強制する。
条件付き符号付きネットワーク埋め込み(CSNE)を導入する。
我々の確率論的アプローチは、きめ細かな詳細とは別途、ネットワーク内の記号に関する構造情報をモデル化する。
論文 参考訳(メタデータ) (2020-05-19T19:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。