論文の概要: Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global
Context
- arxiv url: http://arxiv.org/abs/2109.07293v1
- Date: Wed, 15 Sep 2021 13:41:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-09-16 19:45:53.104996
- Title: Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global
Context
- Title(参考訳): 局所的および大域的文脈の協調モデリングによる教師なしキーフレーズ抽出
- Authors: Xinnian Liang and Shuangzhi Wu and Mu Li and Zhoujun Li
- Abstract要約: 埋め込みベースの手法は、教師なしキーフレーズ抽出(UKE)タスクに広く用いられている。
本稿では,地域とグローバルのコンテキストを共同でモデル化するUKEの新しい手法を提案する。
- 参考スコア(独自算出の注目度): 25.3472693740778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Embedding based methods are widely used for unsupervised keyphrase extraction
(UKE) tasks. Generally, these methods simply calculate similarities between
phrase embeddings and document embedding, which is insufficient to capture
different context for a more effective UKE model. In this paper, we propose a
novel method for UKE, where local and global contexts are jointly modeled. From
a global view, we calculate the similarity between a certain phrase and the
whole document in the vector space as transitional embedding based models do.
In terms of the local view, we first build a graph structure based on the
document where phrases are regarded as vertices and the edges are similarities
between vertices. Then, we proposed a new centrality computation method to
capture local salient information based on the graph structure. Finally, we
further combine the modeling of global and local context for ranking. We
evaluate our models on three public benchmarks (Inspec, DUC 2001, SemEval 2010)
and compare with existing state-of-the-art models. The results show that our
model outperforms most models while generalizing better on input documents with
different domains and length. Additional ablation study shows that both the
local and global information is crucial for unsupervised keyphrase extraction
tasks.
- Abstract(参考訳): 埋め込みベースのメソッドはunsupervised keyphrase extraction (uke)タスクで広く使われている。
一般に、これらの手法は、フレーズ埋め込みと文書埋め込みの類似性を単純に計算するが、より効果的な UKE モデルのために異なる文脈を捉えるには不十分である。
本稿では,地域とグローバルのコンテキストを共同でモデル化するUKEの新しい手法を提案する。
グローバルな視点から、遷移埋め込みに基づくモデルのように、あるフレーズとベクトル空間のドキュメント全体の類似性を計算する。
局所的視点の観点では,まず句を頂点とし,エッジが頂点間の類似性を示す文書に基づいてグラフ構造を構築する。
そこで本研究では,グラフ構造に基づく局所的サルエント情報をキャプチャする新しい集中性計算手法を提案する。
最後に、グローバルコンテキストとローカルコンテキストのモデリングをランキングのために組み合わせます。
Inspec, DUC 2001, SemEval 2010の3つの公開ベンチマークでモデルを評価し, 既存の最先端モデルと比較した。
その結果,我々のモデルは,ドメインや長さの異なる入力文書を一般化しながら,ほとんどのモデルよりも優れていた。
追加のアブレーション研究により、局所情報とグローバル情報の両方が教師なしキーフレーズ抽出タスクに不可欠であることが示されている。
関連論文リスト
- Grounding Everything: Emerging Localization Properties in
Vision-Language Transformers [51.260510447308306]
事前学習された視覚言語(VL)モデルでは、微調整なしでゼロショットのオープン語彙オブジェクトローカライゼーションが可能であることを示す。
本稿では,CLIPSurgeryが自己注意経路に導入した価値価値注意の考え方を一般化するグラウンドング・エコノミクス・モジュール(GEM)を提案する。
セマンティックセグメンテーションのための様々なベンチマークタスクとデータセットに基づいて提案したGEMフレームワークを評価する。
論文 参考訳(メタデータ) (2023-12-01T19:06:12Z) - Coalescing Global and Local Information for Procedural Text
Understanding [70.10291759879887]
完全な手続き的理解ソリューションは、入力のローカル・グローバル・ビューとアウトプットのグローバル・ビューの3つの中核的な側面を組み合わせるべきである。
本稿では,エンティティと時間表現を構築する新しいモデルであるCoalescing Global and Local InformationCGを提案する。
一般的な手続き的テキスト理解データセットの実験は、我々のモデルが最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2022-08-26T19:16:32Z) - Grounding Visual Representations with Texts for Domain Generalization [9.554646174100123]
相互モダリティの監督は、ドメイン不変の視覚表現の接地に成功することができる。
提案手法は,5つのマルチドメインデータセットの平均性能を1位に評価する。
論文 参考訳(メタデータ) (2022-07-21T03:43:38Z) - Capturing Structural Locality in Non-parametric Language Models [85.94669097485992]
非パラメトリック言語モデルに局所性情報を追加するための,単純かつ効果的なアプローチを提案する。
Javaソースコードとウィキペディアテキストという2つの異なる領域の実験では、局所性がモデルの有効性を向上させることが示されている。
論文 参考訳(メタデータ) (2021-10-06T15:53:38Z) - Global Aggregation then Local Distribution for Scene Parsing [99.1095068574454]
提案手法は,エンドツーエンドのトレーニング可能なブロックとしてモジュール化され,既存のセマンティックセグメンテーションネットワークに容易に接続可能であることを示す。
私たちのアプローチでは、Cityscapes、ADE20K、Pascal Context、Camvid、COCO-stuffといった主要なセマンティックセグメンテーションベンチマークに基づいて、新しい最先端の技術を構築できます。
論文 参考訳(メタデータ) (2021-07-28T03:46:57Z) - Document-level Relation Extraction as Semantic Segmentation [38.614931876015625]
文書レベルの関係抽出は、文書から複数のエンティティペア間の関係を抽出することを目的としている。
本稿では,局所的およびグローバルな情報を取得するために,エンティティレベルの関係行列を予測することで,この問題に対処する。
文書レベルの関係抽出のための文書U字型ネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T13:44:44Z) - Exploiting Global Contextual Information for Document-level Named Entity
Recognition [46.99922251839363]
我々は、GCDoc(Global Context enhanced Document-level NER)と呼ばれるモデルを提案する。
単語レベルでは、文書グラフは単語間のより広範な依存関係をモデル化するために構築される。
文レベルでは、単一文を超えてより広い文脈を適切にモデル化するために、横断文モジュールを用いる。
我々のモデルは、CoNLL 2003データセットで92.22(BERTで93.40)、Ontonotes 5.0データセットで88.32(BERTで90.49)のスコアに達した。
論文 参考訳(メタデータ) (2021-06-02T01:52:07Z) - Coarse-to-Fine Entity Representations for Document-level Relation
Extraction [28.39444850200523]
文書レベルの関係抽出(RE: Document-level Relation extract)は、文内および文間で表現される関係を抽出する必要がある。
最近の研究は、通常文書レベルの相互作用をキャプチャする文書レベルのグラフを構築するグラフベースの手法が有用なエンティティ表現を得ることができることを示している。
粗大な戦略を採用する textbfCoarse-to-textbfFine textbfEntity textbfRepresentation model (textbfCFER) を提案する。
論文 参考訳(メタデータ) (2020-12-04T10:18:59Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。