論文の概要: Interpreting Neural Networks as Gradual Argumentation Frameworks
(Including Proof Appendix)
- arxiv url: http://arxiv.org/abs/2012.05738v1
- Date: Thu, 10 Dec 2020 15:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 15:02:49.810191
- Title: Interpreting Neural Networks as Gradual Argumentation Frameworks
(Including Proof Appendix)
- Title(参考訳): 段階的議論フレームワークとしてのニューラルネットワークの解釈(証明付録を含む)
- Authors: Nico Potyka
- Abstract要約: フィードフォワードニューラルネットワークの興味深いクラスを定量的な議論フレームワークとして理解できることを示す。
この接続は、形式的議論と機械学習の間の橋渡しとなる。
- 参考スコア(独自算出の注目度): 0.34265828682659694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show that an interesting class of feed-forward neural networks can be
understood as quantitative argumentation frameworks. This connection creates a
bridge between research in Formal Argumentation and Machine Learning. We
generalize the semantics of feed-forward neural networks to acyclic graphs and
study the resulting computational and semantical properties in argumentation
graphs. As it turns out, the semantics gives stronger guarantees than existing
semantics that have been tailor-made for the argumentation setting. From a
machine-learning perspective, the connection does not seem immediately helpful.
While it gives intuitive meaning to some feed-forward-neural networks, they
remain difficult to understand due to their size and density. However, the
connection seems helpful for combining background knowledge in form of sparse
argumentation networks with dense neural networks that have been trained for
complementary purposes and for learning the parameters of quantitative
argumentation frameworks in an end-to-end fashion from data.
- Abstract(参考訳): フィードフォワードニューラルネットワークの興味深いクラスを定量的な議論フレームワークとして理解できることを示す。
この接続は、形式的議論と機械学習の間の橋渡しとなる。
フィードフォワードニューラルネットワークの非巡回グラフへのセマンティクスを一般化し,議論グラフにおける計算およびセマンティクス特性について検討する。
結論として、セマンティクスは、議論設定用に作られた既存のセマンティクスよりも強力な保証を提供する。
機械学習の観点からは、接続はすぐには役に立たない。
いくつかのフィードフォワードニューラルネットワークに直感的な意味を与えるが、その大きさと密度のために理解しにくい。
しかし、この関係は、疎な議論ネットワークと、補足的な目的のために訓練された密集したニューラルネットワークの形で背景知識を結合し、データからエンドツーエンドの方法で量的議論フレームワークのパラメータを学習するのに有用である。
関連論文リスト
- Less Data, More Knowledge: Building Next Generation Semantic
Communication Networks [180.82142885410238]
本稿では、スケーラブルなエンドツーエンドセマンティック通信ネットワークの最初の厳密なビジョンを示す。
まず、セマンティック・コミュニケーション・ネットワークの設計は、データ駆動型ネットワークから知識駆動型ネットワークへどのように移行する必要があるかについて議論する。
意味表現と言語を用いることで、従来の送信機と受信機が教師と見習いになることを示す。
論文 参考訳(メタデータ) (2022-11-25T19:03:25Z) - Consistency of Neural Networks with Regularization [0.0]
本稿では,ニューラルネットワークの規則化による一般的な枠組みを提案し,その一貫性を実証する。
双曲関数(Tanh)と整形線形単位(ReLU)の2種類の活性化関数が検討されている。
論文 参考訳(メタデータ) (2022-06-22T23:33:39Z) - Neuro-Symbolic Artificial Intelligence (AI) for Intent based Semantic
Communication [85.06664206117088]
6Gネットワークはデータ転送のセマンティクスと有効性(エンドユーザ)を考慮する必要がある。
観測データの背後にある因果構造を学習するための柱としてNeSy AIが提案されている。
GFlowNetは、無線システムにおいて初めて活用され、データを生成する確率構造を学ぶ。
論文 参考訳(メタデータ) (2022-05-22T07:11:57Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Toward Understanding the Feature Learning Process of Self-supervised
Contrastive Learning [43.504548777955854]
本研究では,その特徴学習過程を解析することにより,ニューラルネットワークの特徴表現のコントラスト学習について検討する。
textbfReLUネットワークを用いたコントラスト学習は、適切な拡張が採用されれば、所望のスパース特徴を確実に学習できることを実証する。
論文 参考訳(メタデータ) (2021-05-31T16:42:09Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Topological Insights into Sparse Neural Networks [16.515620374178535]
本稿では,グラフ理論の観点から,スパースニューラルネットワークトポロジの理解と比較を行うアプローチを提案する。
まず、異なるスパースニューラルネットワーク間の距離を測定するために、NNSTD(Neural Network Sparse Topology Distance)を提案する。
適応的なスパース接続は、高密度モデルよりも優れた非常に異なるトポロジを持つスパースサブネットワークを常に顕在化することができることを示す。
論文 参考訳(メタデータ) (2020-06-24T22:27:21Z) - Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural
Networks [3.7277730514654555]
決定木を用いて、関連する特徴とその相互作用をキャプチャし、抽出した関係をニューラルネットワークにエンコードするマッピングを定義する。
同時に、機能選択により、アートツリーベースのアプローチの状況と比較して、コンパクトな表現の学習が可能になる。
論文 参考訳(メタデータ) (2020-02-11T11:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。