論文の概要: From Common Sense Reasoning to Neural Network Models through Multiple
Preferences: an overview
- arxiv url: http://arxiv.org/abs/2107.04870v1
- Date: Sat, 10 Jul 2021 16:25:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 16:02:37.768430
- Title: From Common Sense Reasoning to Neural Network Models through Multiple
Preferences: an overview
- Title(参考訳): 常識推論から複数の選好を通してのニューラルネットワークモデルへ:概要
- Authors: Laura Giordano, Valentina Gliozzi, Daniele Theseider Dupr\'e
- Abstract要約: 本稿では、条件論理と優先論理とニューラルネットワークモデルの関係について論じる。
提案する概念的マルチ参照セマンティクスは,近年,デファシブルな記述ロジックに導入されている。
本稿では、自己組織化マップと多層受容器の事例を通して、一般的なアプローチについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we discuss the relationships between conditional and
preferential logics and neural network models, based on a multi-preferential
semantics. We propose a concept-wise multipreference semantics, recently
introduced for defeasible description logics to take into account preferences
with respect to different concepts, as a tool for providing a semantic
interpretation to neural network models. This approach has been explored both
for unsupervised neural network models (Self-Organising Maps) and for
supervised ones (Multilayer Perceptrons), and we expect that the same approach
might be extended to other neural network models. It allows for logical
properties of the network to be checked (by model checking) over an
interpretation capturing the input-output behavior of the network. For
Multilayer Perceptrons, the deep network itself can be regarded as a
conditional knowledge base, in which synaptic connections correspond to
weighted conditionals. The paper describes the general approach, through the
cases of Self-Organising Maps and Multilayer Perceptrons, and discusses some
open issues and perspectives.
- Abstract(参考訳): 本稿では,条件論理と優先論理とニューラルネットワークモデルの関係について,多項意味論に基づく考察を行う。
本稿では,ニューラルネットワークモデルに意味的解釈を提供するツールとして,異なる概念に対する嗜好を考慮に入れるために,最近導入された概念的多元参照セマンティクスを提案する。
このアプローチは、教師なしニューラルネットワークモデル(自己組織化マップ)と教師なしニューラルネットワークモデル(マルチレイヤーパーセプトロン)の両方で検討されており、同じアプローチが他のニューラルネットワークモデルにも拡張されることを期待している。
これにより、ネットワークの入出力動作をキャプチャする解釈を通じて、ネットワークの論理特性を(モデルチェックによって)チェックすることができる。
多層パーセプトロンでは、ディープネットワーク自体を条件付き知識ベースと見なすことができ、シナプス接続は重み付き条件付き接続に対応する。
本稿では, 自己組織化マップと多層パーセプトロンの事例を通して, 一般的なアプローチを説明し, オープンな課題と展望について考察する。
関連論文リスト
- This Probably Looks Exactly Like That: An Invertible Prototypical Network [8.957872207471311]
プロトタイプニューラルネットワークは、概念アノテーションなしで人間に理解可能な機械学習を実現するための、エキサイティングな方法だ。
原型的説明に対する間接的解釈関数への依存は、プロトタイプの情報的力に厳しい制限を課すことが判明した。
本稿では,ガウス混合モデルを用いて正規化フローを構成することにより,ProtoFlowと呼ばれるモデルを提案する。
論文 参考訳(メタデータ) (2024-07-16T21:51:02Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Understanding polysemanticity in neural networks through coding theory [0.8702432681310401]
本稿では,ネットワークの解釈可能性に関する新たな実践的アプローチと,多意味性やコードの密度に関する理論的考察を提案する。
ランダムなプロジェクションによって、ネットワークがスムーズか非微分可能かが明らかになり、コードがどのように解釈されるかを示す。
我々のアプローチは、ニューラルネットワークにおける解釈可能性の追求を前進させ、その基盤となる構造についての洞察を与え、回路レベルの解釈可能性のための新たな道を提案する。
論文 参考訳(メタデータ) (2024-01-31T16:31:54Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - NFT-K: Non-Fungible Tangent Kernels [23.93508901712177]
我々は、ディープニューラルネットワークの各層を個別にモデル化する複数のニューラルネットワークカーネルの組み合わせとして、新しいネットワークを開発する。
2つのデータセット上でこのモデルの解釈可能性を示し、複数のカーネルモデルが層と予測の間の相互作用を解明することを示した。
論文 参考訳(メタデータ) (2021-10-11T00:35:47Z) - Weighted defeasible knowledge bases and a multipreference semantics for
a deep neural network model [0.0]
知識表現における難解な推論のための多項的意味論とディープニューラルネットワークモデルとの関係を検討する。
記述論理のための重み付き知識ベースは「概念的」なマルチプレファレンスセマンティクスの下で考慮される。
論文 参考訳(メタデータ) (2020-12-24T19:04:51Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。