論文の概要: Entity Set Co-Expansion in StackOverflow
- arxiv url: http://arxiv.org/abs/2212.02271v1
- Date: Mon, 5 Dec 2022 13:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:01:10.257529
- Title: Entity Set Co-Expansion in StackOverflow
- Title(参考訳): StackOverflowにおけるエンティティセットの共拡張
- Authors: Yu Zhang, Yunyi Zhang, Yucheng Jiang, Martin Michalski, Yu Deng,
Lucian Popa, ChengXiang Zhai, Jiawei Han
- Abstract要約: 特定の種類のいくつかのシードエンティティが与えられた場合、エンティティセット拡張は、シードと同じタイプのエンティティの広範なセットを見つけることを目的としている。
StackOverflowの質問応答スレッドからライブラリ、OS、アプリケーション、言語エンティティを抽出する。
共同膨張過程において、我々はPLMを用いて、エンティティ間の類似性を計算するための候補エンティティの埋め込みを導出する。
- 参考スコア(独自算出の注目度): 49.64523055423687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a few seed entities of a certain type (e.g., Software or Programming
Language), entity set expansion aims to discover an extensive set of entities
that share the same type as the seeds. Entity set expansion in software-related
domains such as StackOverflow can benefit many downstream tasks (e.g., software
knowledge graph construction) and facilitate better IT operations and service
management. Meanwhile, existing approaches are less concerned with two
problems: (1) How to deal with multiple types of seed entities simultaneously?
(2) How to leverage the power of pre-trained language models (PLMs)? Being
aware of these two problems, in this paper, we study the entity set
co-expansion task in StackOverflow, which extracts Library, OS, Application,
and Language entities from StackOverflow question-answer threads. During the
co-expansion process, we use PLMs to derive embeddings of candidate entities
for calculating similarities between entities. Experimental results show that
our proposed SECoExpan framework outperforms previous approaches significantly.
- Abstract(参考訳): 特定のタイプのいくつかのシードエンティティ(例えば、ソフトウェアやプログラミング言語)が与えられると、エンティティセットの拡張は、種と同じタイプを共有する広範なエンティティセットを見つけることを目的としている。
stackoverflowのようなソフトウェア関連ドメインにおけるエンティティセットの拡張は多くのダウンストリームタスク(例えば、ソフトウェアナレッジグラフの構築)に利益をもたらし、より良いitオペレーションとサービス管理を促進する。
一方,既存のアプローチでは,(1)複数種類のシードエンティティを同時に処理する方法という2つの問題にはあまり関心がない。
2) 事前学習言語モデル(PLM)のパワーをどのように活用するか。
本稿では,これら2つの問題を認識し,stackoverflow からライブラリ,os,アプリケーション,言語エンティティを抽出する stackoverflow のエンティティ集合協調タスクについて検討する。
共同膨張過程において、我々はPLMを用いて、エンティティ間の類似性を計算するための候補エンティティの埋め込みを導出する。
実験の結果,提案するsecoexpanフレームワークは,従来のアプローチを大きく上回ることがわかった。
関連論文リスト
- OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Effective Two-Stage Knowledge Transfer for Multi-Entity Cross-Domain
Recommendation [27.14804652946457]
我々は,MKTと呼ばれる,事前学習および微調整に基づく多言語知識伝達フレームワークを提案する。
MKTはマルチエンタリティ事前学習モジュールを使用して、異なるエンティティ間で伝達可能な知識を抽出する。
最後に,抽出した共通知識を対象エンティティモデルトレーニングに適用する。
論文 参考訳(メタデータ) (2024-02-29T12:29:58Z) - Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment [31.70064035432789]
LLMEA(Large Language Model-enhanced Entity Alignment Framework)を提案する。
LLMEAは、知識グラフにまたがるエンティティ間の類似性を埋め込んだり、仮想の等価エンティティとの距離を編集することで、特定のエンティティの候補アライメントを識別する。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
論文 参考訳(メタデータ) (2024-01-30T12:41:04Z) - Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - DAMO-NLP at SemEval-2023 Task 2: A Unified Retrieval-augmented System
for Multilingual Named Entity Recognition [94.90258603217008]
MultiCoNER RNum2共有タスクは、細粒度でノイズの多いシナリオにおいて、多言語の名前付きエンティティ認識(NER)に取り組むことを目的としている。
MultiCoNER RNum1の以前のトップシステムは、ナレッジベースまたはガゼッタを組み込んでいる。
細粒度多言語NERのための統一検索拡張システム(U-RaNER)を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:59:26Z) - PIE: a Parameter and Inference Efficient Solution for Large Scale
Knowledge Graph Embedding Reasoning [24.29409958504209]
PIE, textbfparameter および textbfinference textbfefficient ソリューションを提案する。
テンソル分解法から着想を得た結果, 要素埋め込み行列を低階行列に分解することで, パラメータの半数以上を削減できることがわかった。
モデル推論を高速化するために,よりきめ細かなエンティティタイピングのように見える自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2022-04-29T09:06:56Z) - Contrastive Learning with Hard Negative Entities for Entity Set
Expansion [29.155036098444008]
様々なNLPおよびIRアプリケーションは、知識を発見する能力により、ESEの恩恵を受けるだろう。
我々は、エンティティの表現を洗練させるために、コントラスト学習を伴うエンティティレベルのマスキング言語モデルを考案する。
さらに、上記の言語モデルによって得られたエンティティ表現を利用してエンティティを拡張する新しい確率的ESEフレームワークであるProbExpanを提案する。
論文 参考訳(メタデータ) (2022-04-16T12:26:42Z) - Parallel Instance Query Network for Named Entity Recognition [73.30174490672647]
名前付きエンティティ認識(NER)は自然言語処理の基本課題である。
最近の研究は、名前付きエンティティ認識を読み取り理解タスクとして扱い、エンティティを抽出するためにタイプ固有のクエリを手動で構築している。
本稿では,グローバルかつ学習可能なインスタンスクエリを並列に抽出するParallel Instance Query Network (PIQN)を提案する。
論文 参考訳(メタデータ) (2022-03-20T13:01:25Z) - Empower Entity Set Expansion via Language Model Probing [58.78909391545238]
既存の拡張方法は、コンテキスト特徴を適応的に選択し、新しいエンティティを抽出することで、シードエンティティをブートストラップする。
エンティティセット拡張の鍵となる課題は、クラスセマンティクスをシフトし、後のイテレーションで累積エラーにつながる曖昧なコンテキスト機能を選択することを避けることである。
セマンティックドリフト問題に対処するために、自動生成されたクラス名を活用する新しい反復的集合拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-29T00:09:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。