論文の概要: KEML: A Knowledge-Enriched Meta-Learning Framework for Lexical Relation
Classification
- arxiv url: http://arxiv.org/abs/2002.10903v2
- Date: Thu, 3 Dec 2020 02:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:38:51.009202
- Title: KEML: A Knowledge-Enriched Meta-Learning Framework for Lexical Relation
Classification
- Title(参考訳): KEML: 語彙関係分類のための知識豊富なメタ学習フレームワーク
- Authors: Chengyu Wang, Minghui Qiu, Jun Huang, Xiaofeng He
- Abstract要約: 語彙関係は三重関係の形で、概念がどのように意味論的に関連しているかを記述する。
語彙関係分類の課題に対処する知識強化メタラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 37.2106265998237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lexical relations describe how concepts are semantically related, in the form
of relation triples. The accurate prediction of lexical relations between
concepts is challenging, due to the sparsity of patterns indicating the
existence of such relations. We propose the Knowledge-Enriched Meta-Learning
(KEML) framework to address the task of lexical relation classification. In
KEML, the LKB-BERT (Lexical Knowledge Base-BERT) model is presented to learn
concept representations from massive text corpora, with rich lexical knowledge
injected by distant supervision. A probabilistic distribution of auxiliary
tasks is defined to increase the model's ability to recognize different types
of lexical relations. We further combine a meta-learning process over the
auxiliary task distribution and supervised learning to train the neural lexical
relation classifier. Experiments over multiple datasets show that KEML
outperforms state-of-the-art methods.
- Abstract(参考訳): 語彙関係は三重関係の形で、概念がどのように意味論的に関連しているかを記述する。
概念間の語彙関係の正確な予測は、そのような関係の存在を示すパターンのスパーシティのため困難である。
本稿では,語彙関係分類の課題に対処する知識強化メタラーニング(KEML)フレームワークを提案する。
KEMLでは、LKB-BERT(Lexical Knowledge Base-BERT)モデルは、遠隔監視によって注入された豊富な語彙知識を用いて、大量のテキストコーパスから概念表現を学ぶために提示される。
補助タスクの確率分布は、モデルの異なる種類の語彙関係を認識する能力を高めるために定義される。
さらに,補助タスク分散上でのメタ学習プロセスと教師付き学習を組み合わせることで,神経語彙関係分類器を訓練する。
複数のデータセットに対する実験では、KEMLが最先端のメソッドより優れていることが示されている。
関連論文リスト
- Identifying Semantic Induction Heads to Understand In-Context Learning [98.43943823238907]
自然言語に存在するトークン間の2種類の関係を,注目ヘッドが符号化するかどうかを検討する。
特定の注意ヘッドは、ヘッドトークンに出席する際、テールトークンをリコールし、テールトークンの出力ロジットを増加させるパターンを示す。
論文 参考訳(メタデータ) (2024-02-20T14:43:39Z) - The Matrix: A Bayesian learning model for LLMs [1.169389391551085]
大規模言語モデル(LLM)の振る舞いを理解するためのベイズ学習モデルを提案する。
提案手法では,先行した多項遷移確率行列で表される理想的な生成テキストモデルを構築する。
埋め込みと多項分布の間の写像の連続性について議論し、ディリクレ近似定理を任意の事前に近似する。
論文 参考訳(メタデータ) (2024-02-05T16:42:10Z) - Prompt-based Logical Semantics Enhancement for Implicit Discourse
Relation Recognition [4.7938839332508945]
Inlicit Discourse Relation Recognition (IDRR) のための Prompt-based Logical Semantics Enhancement (PLSE) 法を提案する。
提案手法は,事前学習した言語モデルに対する対話関係に関する知識を,素早い接続予測によってシームレスに注入する。
PDTB 2.0 と CoNLL16 データセットによる実験結果から,本手法は現状の最先端モデルに対して優れた一貫した性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-01T08:38:08Z) - Link-Context Learning for Multimodal LLMs [40.923816691928536]
リンクコンテキスト学習(LCL)はMLLMの学習能力を高めるために「原因と効果からの推論」を強調する。
LCLは、アナログだけでなく、データポイント間の因果関係も識別するようモデルに導出する。
本手法の評価を容易にするため,ISEKAIデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-15T17:33:24Z) - Knowledge-Enhanced Hierarchical Information Correlation Learning for
Multi-Modal Rumor Detection [82.94413676131545]
マルチモーダルなうわさ検出のための知識強化型階層型情報相関学習手法(KhiCL)を提案する。
KhiCLは異質な一様性特徴を共通特徴空間に伝達するために、クロスモーダルな関節辞書を利用する。
画像やテキストから視覚的およびテキスト的実体を抽出し、知識関連推論戦略を設計する。
論文 参考訳(メタデータ) (2023-06-28T06:08:20Z) - Imposing Relation Structure in Language-Model Embeddings Using
Contrastive Learning [30.00047118880045]
グラフ構造における関係をエンコードするために文埋め込みを訓練する新しいコントラスト学習フレームワークを提案する。
結果として得られた関係認識文の埋め込みは、関係抽出タスクにおける最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-02T10:58:27Z) - PPKE: Knowledge Representation Learning by Path-based Pre-training [43.41597219004598]
PPKEと呼ばれる知識埋め込み学習のためのパスベース事前学習モデルを提案する。
本モデルはリンク予測と関係予測タスクのためのいくつかのベンチマークデータセットで最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-07T10:29:30Z) - Leveraging Semantic Parsing for Relation Linking over Knowledge Bases [80.99588366232075]
本稿では,AMRを用いた意味解析と遠隔監視を利用した関係リンクフレームワークであるSlingを提案する。
Slingは複数の関係リンクアプローチを統合し、言語的手がかり、豊かな意味表現、知識ベースからの情報などの補完的な信号をキャプチャする。
QALD-7, QALD-9, LC-QuAD 1.0という3つのKBQAデータセットを用いた関係リンク実験により, 提案手法が全てのベンチマークで最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-09-16T14:56:11Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。