論文の概要: KEML: A Knowledge-Enriched Meta-Learning Framework for Lexical Relation
Classification
- arxiv url: http://arxiv.org/abs/2002.10903v2
- Date: Thu, 3 Dec 2020 02:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:38:51.009202
- Title: KEML: A Knowledge-Enriched Meta-Learning Framework for Lexical Relation
Classification
- Title(参考訳): KEML: 語彙関係分類のための知識豊富なメタ学習フレームワーク
- Authors: Chengyu Wang, Minghui Qiu, Jun Huang, Xiaofeng He
- Abstract要約: 語彙関係は三重関係の形で、概念がどのように意味論的に関連しているかを記述する。
語彙関係分類の課題に対処する知識強化メタラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 37.2106265998237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lexical relations describe how concepts are semantically related, in the form
of relation triples. The accurate prediction of lexical relations between
concepts is challenging, due to the sparsity of patterns indicating the
existence of such relations. We propose the Knowledge-Enriched Meta-Learning
(KEML) framework to address the task of lexical relation classification. In
KEML, the LKB-BERT (Lexical Knowledge Base-BERT) model is presented to learn
concept representations from massive text corpora, with rich lexical knowledge
injected by distant supervision. A probabilistic distribution of auxiliary
tasks is defined to increase the model's ability to recognize different types
of lexical relations. We further combine a meta-learning process over the
auxiliary task distribution and supervised learning to train the neural lexical
relation classifier. Experiments over multiple datasets show that KEML
outperforms state-of-the-art methods.
- Abstract(参考訳): 語彙関係は三重関係の形で、概念がどのように意味論的に関連しているかを記述する。
概念間の語彙関係の正確な予測は、そのような関係の存在を示すパターンのスパーシティのため困難である。
本稿では,語彙関係分類の課題に対処する知識強化メタラーニング(KEML)フレームワークを提案する。
KEMLでは、LKB-BERT(Lexical Knowledge Base-BERT)モデルは、遠隔監視によって注入された豊富な語彙知識を用いて、大量のテキストコーパスから概念表現を学ぶために提示される。
補助タスクの確率分布は、モデルの異なる種類の語彙関係を認識する能力を高めるために定義される。
さらに,補助タスク分散上でのメタ学習プロセスと教師付き学習を組み合わせることで,神経語彙関係分類器を訓練する。
複数のデータセットに対する実験では、KEMLが最先端のメソッドより優れていることが示されている。
関連論文リスト
- RelationVLM: Making Large Vision-Language Models Understand Visual Relations [66.70252936043688]
本稿では,複数の画像にまたがっても動画内でも,様々なレベルの関係を解釈できる大規模視覚言語モデルであるRelationVLMを提案する。
具体的には,多段階的な関係認識学習手法とそれに対応するデータ構成戦略を考案し,意味的関係を理解する能力を備えた関係VLMを提案する。
論文 参考訳(メタデータ) (2024-03-19T15:01:19Z) - Identifying Semantic Induction Heads to Understand In-Context Learning [103.00463655766066]
自然言語に存在するトークン間の2種類の関係を,注目ヘッドが符号化するかどうかを検討する。
特定の注意ヘッドは、ヘッドトークンに出席する際、テールトークンをリコールし、テールトークンの出力ロジットを増加させるパターンを示す。
論文 参考訳(メタデータ) (2024-02-20T14:43:39Z) - Modeling Balanced Explicit and Implicit Relations with Contrastive
Learning for Knowledge Concept Recommendation in MOOCs [1.0377683220196874]
既存の手法は、推薦のためのユーザと知識概念との明確な関係に依存している。
MOOCプラットフォーム上のユーザの学習活動には、暗黙の関係が多数発生している。
本研究では,明示的・暗黙的な関係を表現・バランスできる,対照的な学習に基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-13T07:12:44Z) - Prompt-based Logical Semantics Enhancement for Implicit Discourse
Relation Recognition [4.7938839332508945]
Inlicit Discourse Relation Recognition (IDRR) のための Prompt-based Logical Semantics Enhancement (PLSE) 法を提案する。
提案手法は,事前学習した言語モデルに対する対話関係に関する知識を,素早い接続予測によってシームレスに注入する。
PDTB 2.0 と CoNLL16 データセットによる実験結果から,本手法は現状の最先端モデルに対して優れた一貫した性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-01T08:38:08Z) - Link-Context Learning for Multimodal LLMs [40.923816691928536]
リンクコンテキスト学習(LCL)はMLLMの学習能力を高めるために「原因と効果からの推論」を強調する。
LCLは、アナログだけでなく、データポイント間の因果関係も識別するようモデルに導出する。
本手法の評価を容易にするため,ISEKAIデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-15T17:33:24Z) - Knowledge-Enhanced Hierarchical Information Correlation Learning for
Multi-Modal Rumor Detection [82.94413676131545]
マルチモーダルなうわさ検出のための知識強化型階層型情報相関学習手法(KhiCL)を提案する。
KhiCLは異質な一様性特徴を共通特徴空間に伝達するために、クロスモーダルな関節辞書を利用する。
画像やテキストから視覚的およびテキスト的実体を抽出し、知識関連推論戦略を設計する。
論文 参考訳(メタデータ) (2023-06-28T06:08:20Z) - Imposing Relation Structure in Language-Model Embeddings Using
Contrastive Learning [30.00047118880045]
グラフ構造における関係をエンコードするために文埋め込みを訓練する新しいコントラスト学習フレームワークを提案する。
結果として得られた関係認識文の埋め込みは、関係抽出タスクにおける最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-02T10:58:27Z) - PPKE: Knowledge Representation Learning by Path-based Pre-training [43.41597219004598]
PPKEと呼ばれる知識埋め込み学習のためのパスベース事前学習モデルを提案する。
本モデルはリンク予測と関係予測タスクのためのいくつかのベンチマークデータセットで最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-07T10:29:30Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。