論文の概要: Improving Zero Shot Learning Baselines with Commonsense Knowledge
- arxiv url: http://arxiv.org/abs/2012.06236v1
- Date: Fri, 11 Dec 2020 10:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 13:23:59.650681
- Title: Improving Zero Shot Learning Baselines with Commonsense Knowledge
- Title(参考訳): Commonsenseの知識によるゼロショット学習ベースラインの改善
- Authors: Abhinaba Roy, Deepanway Ghosal, Erik Cambria, Navonil Majumder, Rada
Mihalcea, Soujanya Poria
- Abstract要約: 我々は、commonsense知識グラフであるconceptnetで定義されたノード間の明示的な関係を利用して、クラスラベルのcommonsense埋め込みを生成する。
3つの標準ベンチマークデータセット上で行った実験は、常識埋め込みと既存のセマンティック埋め込みを融合させると、強力なベースラインを超えます。
- 参考スコア(独自算出の注目度): 42.12440091215234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero shot learning -- the problem of training and testing on a completely
disjoint set of classes -- relies greatly on its ability to transfer knowledge
from train classes to test classes. Traditionally semantic embeddings
consisting of human defined attributes (HA) or distributed word embeddings
(DWE) are used to facilitate this transfer by improving the association between
visual and semantic embeddings. In this paper, we take advantage of explicit
relations between nodes defined in ConceptNet, a commonsense knowledge graph,
to generate commonsense embeddings of the class labels by using a graph
convolution network-based autoencoder. Our experiments performed on three
standard benchmark datasets surpass the strong baselines when we fuse our
commonsense embeddings with existing semantic embeddings i.e. HA and DWE.
- Abstract(参考訳): ゼロショットラーニング(ゼロショットラーニング) – 完全に不連続なクラスのトレーニングとテストの問題は、その知識を列車クラスからテストクラスに転送する能力に大きく依存している。
伝統的に、人間の定義属性(HA)または分散単語埋め込み(DWE)から構成されるセマンティック埋め込みは、視覚的およびセマンティック埋め込みの関連性を改善することで、この伝達を促進するために用いられる。
本稿では,共通意味知識グラフであるconceptnetで定義されたノード間の明示的な関係を利用して,グラフ畳み込みネットワークベースのオートエンコーダを用いてクラスラベルの共通意味埋め込みを生成する。
3つの標準ベンチマークデータセットで実施した実験は、既存のセマンティックな埋め込みとコモンセンスの埋め込みを融合させたときに、強いベースラインを超えた。
HAとDWE。
関連論文リスト
- Exploiting the Semantic Knowledge of Pre-trained Text-Encoders for Continual Learning [70.64617500380287]
継続的な学習は、モデルが学習した知識を維持しながら、新しいデータから学習することを可能にする。
画像のラベル情報で利用できるセマンティック知識は、以前に取得したセマンティッククラスの知識と関連する重要なセマンティック情報を提供する。
テキスト埋め込みを用いて意味的類似性を把握し,タスク内およびタスク間のセマンティックガイダンスの統合を提案する。
論文 参考訳(メタデータ) (2024-08-02T07:51:44Z) - Description-Enhanced Label Embedding Contrastive Learning for Text
Classification [65.01077813330559]
モデル学習プロセスにおける自己監督型学習(SSL)と新しい自己監督型関係関係(R2)分類タスクの設計
テキスト分類とR2分類を最適化対象として扱うテキスト分類のための関係学習ネットワーク(R2-Net)の関係について検討する。
ラベルセマンティックラーニングのためのマルチアスペクト記述を得るためのWordNetからの外部知識。
論文 参考訳(メタデータ) (2023-06-15T02:19:34Z) - An Adversarial Transfer Network for Knowledge Representation Learning [11.013390624382257]
本稿では,1つ以上の教師の知識グラフから対象の知識へ知識を伝達する逆埋め込み転送ネットワークATransNを提案する。
具体的には,既存の知識表現学習手法に,アライメントされたエンティティペアと近傍にソフト制約を加える。
論文 参考訳(メタデータ) (2021-04-30T05:07:25Z) - Improved Biomedical Word Embeddings in the Transformer Era [2.978663539080876]
まずスキップグラム法を用いて単語と概念の埋め込みを学び、相関情報でさらに微調整します。
先行研究により開発された単語関連性について,複数のデータセットを用いた調律された静的組込みの評価を行う。
論文 参考訳(メタデータ) (2020-12-22T03:03:50Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。