論文の概要: Zero-Shot Learning with Knowledge Enhanced Visual Semantic Embeddings
- arxiv url: http://arxiv.org/abs/2011.10889v1
- Date: Sat, 21 Nov 2020 22:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 23:34:49.948747
- Title: Zero-Shot Learning with Knowledge Enhanced Visual Semantic Embeddings
- Title(参考訳): 知識強化型ビジュアルセマンティック埋め込みによるゼロショット学習
- Authors: Karan Sikka, Jihua Huang, Andrew Silberfarb, Prateeth Nayak, Luke
Rohrer, Pritish Sahu, John Byrnes, Ajay Divakaran, Richard Rohwer
- Abstract要約: 従来の知識を新しいニューロシンボリック・ロス関数として定式化するCSNL(Common-Sense Based Neuro-Symbolic Loss)を提案する。
CSNLはVSEの視覚的特徴をハイパーネムや属性に関する常識的な規則に従うように強制する。
- 参考スコア(独自算出の注目度): 16.34378992789361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We improve zero-shot learning (ZSL) by incorporating common-sense knowledge
in DNNs. We propose Common-Sense based Neuro-Symbolic Loss (CSNL) that
formulates prior knowledge as novel neuro-symbolic loss functions that
regularize visual-semantic embedding. CSNL forces visual features in the VSE to
obey common-sense rules relating to hypernyms and attributes. We introduce two
key novelties for improved learning: (1) enforcement of rules for a group
instead of a single concept to take into account class-wise relationships, and
(2) confidence margins inside logical operators that enable implicit curriculum
learning and prevent premature overfitting. We evaluate the advantages of
incorporating each knowledge source and show consistent gains over prior
state-of-art methods in both conventional and generalized ZSL e.g. 11.5%, 5.5%,
and 11.6% improvements on AWA2, CUB, and Kinetics respectively.
- Abstract(参考訳): DNNに常識知識を取り入れてゼロショット学習(ZSL)を改善する。
本稿では,視覚・視覚埋め込みを規則化する新しい神経シンボリック損失関数として,事前知識を定式化するコモンセンスに基づくニューロシンボリックロス(csnl)を提案する。
CSNLはVSEの視覚的特徴をハイパーネムや属性に関する常識的な規則に従うように強制する。
1) クラス間関係を考慮に入れるために, 1つの概念ではなく, 1つのグループのルールを強制すること, (2) 暗黙的なカリキュラム学習を可能にし, 早期の過剰フィットを防止する論理演算子内の信頼マージンについて述べる。
各知識ソースを組み込むことの利点を評価し,従来のzsl法,一般化zsl法,例えば11.5%,5.5%,11.6%のawa2法,cub法,kinetics法において,先行技術法よりも一貫性のある成果を示す。
関連論文リスト
- Towards Understanding Why FixMatch Generalizes Better Than Supervised Learning [97.1805039692731]
半教師付き学習(SSL)は、教師付き学習(SL)よりも大幅に一般化されている。
ディープニューラルネットワーク(DNN)に適用したFixMatchライクSSLで観測されたテスト精度向上のための最初の理論的正当性を示す。
分析フレームワークはFlexMatch、FreeMatch、Dash、SoftMatchといった他のFixMatchライクなSSLメソッドにも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-15T02:47:57Z) - Fuzzy Logic Visual Network (FLVN): A neuro-symbolic approach for visual
features matching [6.128849673587451]
本稿では、ニューロシンボリックLTNフレームワーク内で視覚的セマンティックな埋め込み空間を学習するタスクを定式化するFuzzy Logic Visual Network(FLVN)を提案する。
FLVNは以前の知識をクラス階層(クラスとマクロクラス)の形で組み入れ、堅牢な高レベルの帰納バイアスを持つ。
計算オーバーヘッドの少ない最近のZSL手法と競合する性能を実現する。
論文 参考訳(メタデータ) (2023-07-29T16:21:40Z) - Learning Symbolic Rules over Abstract Meaning Representations for
Textual Reinforcement Learning [63.148199057487226]
本稿では,汎用的な意味一般化とルール誘導システムを組み合わせて,解釈可能なルールをポリシーとして学習するモジュール型 NEuroSymbolic Textual Agent (NESTA) を提案する。
実験の結果,NESTA法は,未確認テストゲームや少ないトレーニングインタラクションから学習することで,深層強化学習技術よりも優れることがわかった。
論文 参考訳(メタデータ) (2023-07-05T23:21:05Z) - Integrating Prior Knowledge in Contrastive Learning with Kernel [4.050766659420731]
我々は、カーネル理論を用いて、(i)事前知識の統合を可能にし、(i)元のInfoNCE損失における負の正の結合を取り除くという、分離均一性(decoupled uniformity)と呼ばれる新しい損失を提案する。
教師なしの環境では、CLは自然画像と医用画像の両方で表現を改善するために生成モデルから恩恵を受けることを実証的に実証する。
論文 参考訳(メタデータ) (2022-06-03T15:43:08Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - LNN-EL: A Neuro-Symbolic Approach to Short-text Entity Linking [62.634516517844496]
本稿では,解釈可能なルールとニューラルネットワークの性能を併用したニューラルシンボリックアプローチであるLNN-ELを提案する。
ルールの使用に制約があるにもかかわらず、LNN-ELはSotAのブラックボックスニューラルアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-17T20:22:45Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Improving Zero Shot Learning Baselines with Commonsense Knowledge [42.12440091215234]
我々は、commonsense知識グラフであるconceptnetで定義されたノード間の明示的な関係を利用して、クラスラベルのcommonsense埋め込みを生成する。
3つの標準ベンチマークデータセット上で行った実験は、常識埋め込みと既存のセマンティック埋め込みを融合させると、強力なベースラインを超えます。
論文 参考訳(メタデータ) (2020-12-11T10:52:04Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。