論文の概要: MICO: A Multi-alternative Contrastive Learning Framework for Commonsense
Knowledge Representation
- arxiv url: http://arxiv.org/abs/2210.07570v1
- Date: Fri, 14 Oct 2022 06:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 16:23:54.382554
- Title: MICO: A Multi-alternative Contrastive Learning Framework for Commonsense
Knowledge Representation
- Title(参考訳): MICO:Commonsense Knowledge Representationのための多言語コントラスト学習フレームワーク
- Authors: Ying Su, Zihao Wang, Tianqing Fang, Hongming Zhang, Yangqiu Song, Tong
Zhang
- Abstract要約: MICOは、COmmonsenseナレッジグラフの多元的コントラスト学習フレームワークである。
エンティティノード間のコンテキスト相互作用によるコモンセンス知識表現を生成する。
これは、単純に表現間の距離スコアを比較することで、以下の2つのタスクの恩恵を受けることができる。
- 参考スコア(独自算出の注目度): 52.238466443561705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commonsense reasoning tasks such as commonsense knowledge graph completion
and commonsense question answering require powerful representation learning. In
this paper, we propose to learn commonsense knowledge representation by MICO, a
Multi-alternative contrastve learning framework on COmmonsense knowledge graphs
(MICO). MICO generates the commonsense knowledge representation by contextual
interaction between entity nodes and relations with multi-alternative
contrastive learning. In MICO, the head and tail entities in an $(h,r,t)$
knowledge triple are converted to two relation-aware sequence pairs (a premise
and an alternative) in the form of natural language. Semantic representations
generated by MICO can benefit the following two tasks by simply comparing the
distance score between the representations: 1) zero-shot commonsense question
answering task; 2) inductive commonsense knowledge graph completion task.
Extensive experiments show the effectiveness of our method.
- Abstract(参考訳): commonsense knowledge graph completionやcommonsense question answeringといったcommonsense推論タスクは強力な表現学習を必要とする。
本稿では,コモンセンス知識グラフ(MICO)の多元的コントラスト学習フレームワークであるMICOによるコモンセンス知識表現の学習を提案する。
MICOは、エンティティノード間のコンテキスト相互作用と、マルチオルタナティブ・コントラスト学習との関係によるコモンセンス知識表現を生成する。
micoでは、$(h,r,t)$の知識トリプルの頭と尾のエンティティは、自然言語という形で、2つの関係認識シーケンスペア(前提と代替)に変換される。
micoが生成する意味表現は、表現間の距離スコアを比較するだけで、以下の2つのタスクにメリットがある。
1) ゼロショット・コモンセンス質問応答課題
2)インダクティブコモンセンス知識グラフ作成タスク。
広範な実験により,本手法の有効性が示された。
関連論文リスト
- Visual Commonsense based Heterogeneous Graph Contrastive Learning [79.22206720896664]
視覚的推論タスクをより良く仕上げるための異種グラフコントラスト学習法を提案する。
本手法はプラグイン・アンド・プレイ方式として設計されており,多種多様な代表手法と迅速かつ容易に組み合わせることができる。
論文 参考訳(メタデータ) (2023-11-11T12:01:18Z) - Adversarial Transformer Language Models for Contextual Commonsense
Inference [14.12019824666882]
コモンセンス推論はコヒーレントなコモンセンスアサーションを生成するタスクである。
課題のいくつかは、推測された事実のトピックに対する制御可能性の欠如、トレーニング中の常識知識の欠如である。
我々は、上記の課題に対処する技術を開発する。
論文 参考訳(メタデータ) (2023-02-10T18:21:13Z) - CIKQA: Learning Commonsense Inference with a Unified
Knowledge-in-the-loop QA Paradigm [120.98789964518562]
我々は,コモンセンス知識の大規模化により,すべてのコモンセンスをカバーできるような,各タスクに十分なトレーニングセットをアノテートすることは不可能である,と論じる。
モデルのコモンセンス推論能力について,2つの観点から検討する。
我々は、このベンチマークを知識-イン-ループ質問回答(CIKQA)を用いたCommonsense Inferenceと命名した。
論文 参考訳(メタデータ) (2022-10-12T14:32:39Z) - MuKEA: Multimodal Knowledge Extraction and Accumulation for
Knowledge-based Visual Question Answering [23.628740943735167]
視覚的対象と事実の回答を暗黙の関係で関連付けるために,明快な三重項によるマルチモーダル知識を表現するためにMuKEAを提案する。
事前学習と微調整の学習戦略を採用することで、基礎知識とドメイン固有のマルチモーダル知識の両方を段階的に蓄積し、回答予測を行う。
論文 参考訳(メタデータ) (2022-03-17T07:42:14Z) - One-shot Scene Graph Generation [130.57405850346836]
ワンショットシーングラフ生成タスクに対して,複数の構造化知識(関係知識知識)を提案する。
提案手法は既存の最先端手法よりも大きなマージンで優れる。
論文 参考訳(メタデータ) (2022-02-22T11:32:59Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Commonsense Knowledge in Word Associations and ConceptNet [37.751909219863585]
本稿では,ConcpetNet と SWOW という2つの大規模知識資源の詳細な比較を行った。
本稿では,2つのグラフの構造,重なり合い,相違点と,それらが状況的常識的知識をエンコードする程度について検討する。
論文 参考訳(メタデータ) (2021-09-20T06:06:30Z) - An Adversarial Transfer Network for Knowledge Representation Learning [11.013390624382257]
本稿では,1つ以上の教師の知識グラフから対象の知識へ知識を伝達する逆埋め込み転送ネットワークATransNを提案する。
具体的には,既存の知識表現学習手法に,アライメントされたエンティティペアと近傍にソフト制約を加える。
論文 参考訳(メタデータ) (2021-04-30T05:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。