論文の概要: Fuzzy Logic Visual Network (FLVN): A neuro-symbolic approach for visual
features matching
- arxiv url: http://arxiv.org/abs/2307.16019v1
- Date: Sat, 29 Jul 2023 16:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 18:05:48.606025
- Title: Fuzzy Logic Visual Network (FLVN): A neuro-symbolic approach for visual
features matching
- Title(参考訳): Fuzzy Logic Visual Network (FLVN):視覚特徴マッチングのためのニューロシンボリックアプローチ
- Authors: Francesco Manigrasso and Lia Morra and Fabrizio Lamberti
- Abstract要約: 本稿では、ニューロシンボリックLTNフレームワーク内で視覚的セマンティックな埋め込み空間を学習するタスクを定式化するFuzzy Logic Visual Network(FLVN)を提案する。
FLVNは以前の知識をクラス階層(クラスとマクロクラス)の形で組み入れ、堅牢な高レベルの帰納バイアスを持つ。
計算オーバーヘッドの少ない最近のZSL手法と競合する性能を実現する。
- 参考スコア(独自算出の注目度): 6.128849673587451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuro-symbolic integration aims at harnessing the power of symbolic knowledge
representation combined with the learning capabilities of deep neural networks.
In particular, Logic Tensor Networks (LTNs) allow to incorporate background
knowledge in the form of logical axioms by grounding a first order logic
language as differentiable operations between real tensors. Yet, few studies
have investigated the potential benefits of this approach to improve zero-shot
learning (ZSL) classification. In this study, we present the Fuzzy Logic Visual
Network (FLVN) that formulates the task of learning a visual-semantic embedding
space within a neuro-symbolic LTN framework. FLVN incorporates prior knowledge
in the form of class hierarchies (classes and macro-classes) along with robust
high-level inductive biases. The latter allow, for instance, to handle
exceptions in class-level attributes, and to enforce similarity between images
of the same class, preventing premature overfitting to seen classes and
improving overall performance. FLVN reaches state of the art performance on the
Generalized ZSL (GZSL) benchmarks AWA2 and CUB, improving by 1.3% and 3%,
respectively. Overall, it achieves competitive performance to recent ZSL
methods with less computational overhead. FLVN is available at
https://gitlab.com/grains2/flvn.
- Abstract(参考訳): ニューロシンボリック統合は、ディープニューラルネットワークの学習能力とシンボリックナレッジ表現のパワーを組み合わせることを目的としている。
特に、論理テンソルネットワーク(ltns)は、実テンソル間の微分可能演算として一階論理言語を基礎にすることで、論理公理の形で背景知識を取り入れることができる。
しかし、ゼロショット学習(ZSL)分類を改善するこのアプローチの潜在的な利点について研究する研究はほとんどない。
本研究では、ニューロシンボリックLTNフレームワーク内で視覚的セマンティックな埋め込み空間を学習するタスクを定式化するFuzzy Logic Visual Network(FLVN)を提案する。
FLVNは以前の知識をクラス階層(クラスとマクロクラス)の形で組み入れ、堅牢な高レベルの帰納バイアスを持つ。
後者は、例えば、クラスレベルの属性の例外を処理し、同じクラスのイメージ間の類似性を強制し、目に見えるクラスへの早期の過剰フィットを防止し、全体的なパフォーマンスを改善することを可能にする。
FLVN は一般ZSL(GZSL)ベンチマーク AWA2 と CUB でそれぞれ 1.3% と 3% 向上した。
全体として、計算オーバーヘッドの少ない最近のZSL手法と競合する性能を実現する。
FLVNはhttps://gitlab.com/grains2/flvn.comで入手できる。
関連論文リスト
- Neural Reasoning Networks: Efficient Interpretable Neural Networks With Automatic Textual Explanations [45.974930902038494]
本稿では,新しいニューラルシンボリックアーキテクチャであるニューラル推論ネットワーク(NRN)を提案する。
トレーニングアルゴリズム(R-NRN)は、バックプロップによる降下最適化を用いて、通常通りネットワークの重みを学習するが、また、帯域ベース最適化を用いてネットワーク構造自体を学習する。
R-NRNの説明は、比較したアプローチよりも短いが、より正確な特徴重要度スコアを生成する。
論文 参考訳(メタデータ) (2024-10-10T14:27:12Z) - Half-Space Feature Learning in Neural Networks [2.3249139042158853]
現在、ニューラルネットワークの特徴学習には2つの極端な視点がある。
どちらの解釈も、新しい観点からは正しいとは考えにくい。
私たちはこの代替解釈を使って、Deep Linearly Gated Network (DLGN)と呼ばれるモデルを動かす。
論文 参考訳(メタデータ) (2024-04-05T12:03:19Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Neuro-symbolic Rule Learning in Real-world Classification Tasks [75.0907310059298]
pix2ruleのニューラルDNFモジュールを拡張し、実世界のマルチクラスおよびマルチラベル分類タスクにおけるルール学習をサポートする。
多クラス分類において相互排他性を強制するニューラルDNF-EO(Exactly One)と呼ばれる新しい拡張モデルを提案する。
論文 参考訳(メタデータ) (2023-03-29T13:27:14Z) - Two-level Graph Network for Few-Shot Class-Incremental Learning [7.815043173207539]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムを設計することを目的としている。
既存のFSCILメソッドは、サンプルレベルとクラスレベルの意味関係を無視する。
本稿では,サンプルレベルとクラスレベルグラフニューラルネット(SCGN)というFSCIL用の2レベルグラフネットワークを設計した。
論文 参考訳(メタデータ) (2023-03-24T08:58:08Z) - PROTOtypical Logic Tensor Networks (PROTO-LTN) for Zero Shot Learning [2.236663830879273]
論理ネットワーク(英: Logic Networks, LTN)は、ディープニューラルネットワークに根ざした微分可能な一階述語論理に基づくニューロシンボリックシステムである。
ここでは、ほとんどの意味的画像解釈タスクをエンコードする基本となるsubsumptionまたはtextttisOfClass述語に焦点を当てる。
本稿では,オブジェクト埋め込みと対応するクラスプロトタイプ間の距離の関数を真理レベルとする,共通のtextttisOfClass述語を提案する。
論文 参考訳(メタデータ) (2022-06-26T18:34:07Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - Isometric Propagation Network for Generalized Zero-shot Learning [72.02404519815663]
一般的な戦略は、クラス属性の意味空間と、見たクラスとそのデータに基づいて画像の視覚空間とのマッピングを学ぶことである。
本稿では,各空間内のクラス間の関係を強化し,2つの空間におけるクラス依存性を整合させるIsometric propagation Network (IPN)を提案する。
IPNは3つの人気のあるゼロショット学習ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-03T12:45:38Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。