論文の概要: Interpreting Neural Networks as Gradual Argumentation Frameworks
(Including Proof Appendix)
- arxiv url: http://arxiv.org/abs/2012.05738v1
- Date: Thu, 10 Dec 2020 15:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 15:02:49.810191
- Title: Interpreting Neural Networks as Gradual Argumentation Frameworks
(Including Proof Appendix)
- Title(参考訳): 段階的議論フレームワークとしてのニューラルネットワークの解釈(証明付録を含む)
- Authors: Nico Potyka
- Abstract要約: フィードフォワードニューラルネットワークの興味深いクラスを定量的な議論フレームワークとして理解できることを示す。
この接続は、形式的議論と機械学習の間の橋渡しとなる。
- 参考スコア(独自算出の注目度): 0.34265828682659694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show that an interesting class of feed-forward neural networks can be
understood as quantitative argumentation frameworks. This connection creates a
bridge between research in Formal Argumentation and Machine Learning. We
generalize the semantics of feed-forward neural networks to acyclic graphs and
study the resulting computational and semantical properties in argumentation
graphs. As it turns out, the semantics gives stronger guarantees than existing
semantics that have been tailor-made for the argumentation setting. From a
machine-learning perspective, the connection does not seem immediately helpful.
While it gives intuitive meaning to some feed-forward-neural networks, they
remain difficult to understand due to their size and density. However, the
connection seems helpful for combining background knowledge in form of sparse
argumentation networks with dense neural networks that have been trained for
complementary purposes and for learning the parameters of quantitative
argumentation frameworks in an end-to-end fashion from data.
- Abstract(参考訳): フィードフォワードニューラルネットワークの興味深いクラスを定量的な議論フレームワークとして理解できることを示す。
この接続は、形式的議論と機械学習の間の橋渡しとなる。
フィードフォワードニューラルネットワークの非巡回グラフへのセマンティクスを一般化し,議論グラフにおける計算およびセマンティクス特性について検討する。
結論として、セマンティクスは、議論設定用に作られた既存のセマンティクスよりも強力な保証を提供する。
機械学習の観点からは、接続はすぐには役に立たない。
いくつかのフィードフォワードニューラルネットワークに直感的な意味を与えるが、その大きさと密度のために理解しにくい。
しかし、この関係は、疎な議論ネットワークと、補足的な目的のために訓練された密集したニューラルネットワークの形で背景知識を結合し、データからエンドツーエンドの方法で量的議論フレームワークのパラメータを学習するのに有用である。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
多様体容量は、人口幾何学とニューラル多様体の分離性とを結びつける有望な枠組みとして出現している。
本稿では,文脈入力情報を活用することによって,この制限を克服する理論的枠組みを提案する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現アンハングメントをキャプチャするが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Neuro-Symbolic Artificial Intelligence (AI) for Intent based Semantic
Communication [85.06664206117088]
6Gネットワークはデータ転送のセマンティクスと有効性(エンドユーザ)を考慮する必要がある。
観測データの背後にある因果構造を学習するための柱としてNeSy AIが提案されている。
GFlowNetは、無線システムにおいて初めて活用され、データを生成する確率構造を学ぶ。
論文 参考訳(メタデータ) (2022-05-22T07:11:57Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Topological Insights into Sparse Neural Networks [16.515620374178535]
本稿では,グラフ理論の観点から,スパースニューラルネットワークトポロジの理解と比較を行うアプローチを提案する。
まず、異なるスパースニューラルネットワーク間の距離を測定するために、NNSTD(Neural Network Sparse Topology Distance)を提案する。
適応的なスパース接続は、高密度モデルよりも優れた非常に異なるトポロジを持つスパースサブネットワークを常に顕在化することができることを示す。
論文 参考訳(メタデータ) (2020-06-24T22:27:21Z) - Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural
Networks [3.7277730514654555]
決定木を用いて、関連する特徴とその相互作用をキャプチャし、抽出した関係をニューラルネットワークにエンコードするマッピングを定義する。
同時に、機能選択により、アートツリーベースのアプローチの状況と比較して、コンパクトな表現の学習が可能になる。
論文 参考訳(メタデータ) (2020-02-11T11:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。