論文の概要: Neural Entity Linking on Technical Service Tickets
- arxiv url: http://arxiv.org/abs/2005.07604v2
- Date: Tue, 19 May 2020 14:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 22:24:16.601259
- Title: Neural Entity Linking on Technical Service Tickets
- Title(参考訳): テクニカルサービスチケットにおけるニューラルエンティティリンク
- Authors: Nadja Kurz, Felix Hamann, Adrian Ulges
- Abstract要約: ニューラルアプローチは、約20%のトップ-1精度の改善とともに、ハンドコードされたエンティティより優れ、補完することを示す。
また,簡単な文単位の符号化 (Bi-Encoder) によって,高速かつ効率的に検索できることを示す。
- 参考スコア(独自算出の注目度): 1.3621712165154805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity linking, the task of mapping textual mentions to known entities, has
recently been tackled using contextualized neural networks. We address the
question whether these results -- reported for large, high-quality datasets
such as Wikipedia -- transfer to practical business use cases, where labels are
scarce, text is low-quality, and terminology is highly domain-specific. Using
an entity linking model based on BERT, a popular transformer network in natural
language processing, we show that a neural approach outperforms and complements
hand-coded heuristics, with improvements of about 20% top-1 accuracy. Also, the
benefits of transfer learning on a large corpus are demonstrated, while
fine-tuning proves difficult. Finally, we compare different BERT-based
architectures and show that a simple sentence-wise encoding (Bi-Encoder) offers
a fast yet efficient search in practice.
- Abstract(参考訳): テキストによる言及を既知のエンティティにマッピングする作業であるエンティティリンクは、最近コンテキスト化されたニューラルネットワークを使用して取り組まれている。
我々は、これらの結果 -- wikipediaのような大規模で高品質なデータセットで報告されている -- が、ラベルが不足し、テキストが低品質で、用語がドメイン特化している実用的なビジネスユースケースに転送されるかどうかに疑問を呈する。
自然言語処理における一般的なトランスフォーマーネットワークであるbertに基づくエンティティリンクモデルを用いて,約20%のtop-1精度を向上し,手書きヒューリスティックスよりもニューラルネットワークが優れ,補完することを示す。
また,大きなコーパス上での転送学習の利点が実証されているが,微調整は困難である。
最後に、異なるBERTベースのアーキテクチャを比較し、単純な文単位の符号化(Bi-Encoder)が高速かつ効率的な検索を実現することを示す。
関連論文リスト
- Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Sentiment analysis in Tourism: Fine-tuning BERT or sentence embeddings
concatenation? [0.0]
変換器からの双方向表現を微調整する手法と2つの埋め込みを結合して、積層した2方向長短期記憶-二方向Gated Recurrent Unitsモデルの性能を向上させる方法の比較研究を行う。
2つの手法のレベルで最高の学習率の探索を行い、各文の埋め込み組み合わせに対して最適な埋め込みの比較を行った。
論文 参考訳(メタデータ) (2023-12-12T23:23:23Z) - Hierarchical Transformer Model for Scientific Named Entity Recognition [0.20646127669654832]
名前付きエンティティ認識のためのシンプルで効果的なアプローチを提案する。
提案手法の主な考え方は、入力サブワードシーケンスをBERTのような事前学習された変換器で符号化することである。
科学的NERのための3つのベンチマークデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-03-28T12:59:06Z) - Hierarchical Neural Network Approaches for Long Document Classification [3.6700088931938835]
我々は、より効率的な表現を効率よく捉えるために、事前訓練された普遍文(USE)と変換器からの双方向表現(BERT)を階層的に採用する。
提案するモデルは概念的に単純であり,入力データをチャンクに分割し,BERTとUSEのベースモデルに渡す。
USE + CNN/LSTM はスタンドアローンのベースラインよりも優れており、BERT + CNN/LSTM はスタンドアローンのベースラインと同等である。
論文 参考訳(メタデータ) (2022-01-18T07:17:40Z) - KnowPrompt: Knowledge-aware Prompt-tuning with Synergistic Optimization
for Relation Extraction [111.74812895391672]
シナジスティック最適化(KnowPrompt)を用いた知識認識型Promptチューニング手法を提案する。
関係ラベルに含まれる潜在知識をインジェクトして,学習可能な仮想型語と解答語で構築する。
論文 参考訳(メタデータ) (2021-04-15T17:57:43Z) - Dependency Parsing based Semantic Representation Learning with Graph
Neural Network for Enhancing Expressiveness of Text-to-Speech [49.05471750563229]
文の依存性関係を考慮したグラフニューラルネットワークに基づく意味表現学習手法を提案する。
提案手法は,LJSpeech と Bilzzard Challenge 2013 のデータセットにおいて,バニラBERT の機能をベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2021-04-14T13:09:51Z) - KI-BERT: Infusing Knowledge Context for Better Language and Domain
Understanding [0.0]
概念的および曖昧な実体に対する知識グラフから知識コンテキストをトランスフォーマーアーキテクチャに基づくモデルに注入する手法を提案する。
私たちの新しい技術プロジェクト知識グラフは、同質ベクトル空間に埋め込み、エンティティのための新しいトークンタイプ、エンティティの位置IDの整列、および選択的注意メカニズムを導入します。
私たちはBERTをベースラインモデルとし、ConceptNetとWordNetから知識コンテキストを注入して「KnowledgeInfused BERT」を実装します。
論文 参考訳(メタデータ) (2021-04-09T16:15:31Z) - A Novel Deep Learning Method for Textual Sentiment Analysis [3.0711362702464675]
本稿では,階層的注意層を統合した畳み込みニューラルネットワークを提案する。
提案モデルでは,分類精度が高く,情報的単語を抽出できる。
インクリメンタル転送学習を適用すると、分類性能が大幅に向上します。
論文 参考訳(メタデータ) (2021-02-23T12:11:36Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。