論文の概要: TreeMatch: A Fully Unsupervised WSD System Using Dependency Knowledge on a Specific Domain
- arxiv url: http://arxiv.org/abs/2501.02546v1
- Date: Sun, 05 Jan 2025 13:56:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:09:23.556082
- Title: TreeMatch: A Fully Unsupervised WSD System Using Dependency Knowledge on a Specific Domain
- Title(参考訳): TreeMatch: 特定のドメインに依存した完全教師なしWSDシステム
- Authors: Andrew Tran, Chris Bowes, David Brown, Ping Chen, Max Choly, Wei Ding,
- Abstract要約: TreeMatchは、元々SemEval 2007 Task 7のデータを使って開発されたWSDシステムである。
システムは、ドメイン固有の知識ベースから引き出された依存性知識を使用して、完全に教師なしの手法に基づいている。
- 参考スコア(独自算出の注目度): 3.059305602536682
- License:
- Abstract: Word sense disambiguation (WSD) is one of the main challenges in Computational Linguistics. TreeMatch is a WSD system originally developed using data from SemEval 2007 Task 7 (Coarse-grained English All-words Task) that has been adapted for use in SemEval 2010 Task 17 (All-words Word Sense Disambiguation on a Specific Domain). The system is based on a fully unsupervised method using dependency knowledge drawn from a domain specific knowledge base that was built for this task. When evaluated on the task, the system precision performs above the Most Frequent Selection baseline.
- Abstract(参考訳): 単語感覚の曖昧さ (WSD) は、計算言語学における主要な課題の1つである。
TreeMatchは、もともとSemEval 2007 Task 7 (粗粒の英語オールワードタスク)のデータを用いて開発されたWSDシステムで、SemEval 2010 Task 17 (特定のドメイン上での単語センスの曖昧さ)での使用に適応している。
このシステムは、このタスクのために構築されたドメイン固有の知識ベースから引き出された依存性知識を用いた、完全に教師なしの手法に基づいている。
タスクで評価すると、システム精度が最頻選択ベースラインを超える。
関連論文リスト
- InstructTODS: Large Language Models for End-to-End Task-Oriented
Dialogue Systems [60.53276524369498]
大規模言語モデル(LLM)は自然言語処理(NLP)における多様なタスクに使用されている。
InstructTODSは、ゼロショットのタスク指向対話システムのための新しいフレームワークである。
InstructTODSは、ユーザの意図を動的クエリにシームレスに翻訳するプロキシの信念状態を生成する。
論文 参考訳(メタデータ) (2023-10-13T06:36:26Z) - DAMO-NLP at SemEval-2023 Task 2: A Unified Retrieval-augmented System
for Multilingual Named Entity Recognition [94.90258603217008]
MultiCoNER RNum2共有タスクは、細粒度でノイズの多いシナリオにおいて、多言語の名前付きエンティティ認識(NER)に取り組むことを目的としている。
MultiCoNER RNum1の以前のトップシステムは、ナレッジベースまたはガゼッタを組み込んでいる。
細粒度多言語NERのための統一検索拡張システム(U-RaNER)を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:59:26Z) - IXA/Cogcomp at SemEval-2023 Task 2: Context-enriched Multilingual Named
Entity Recognition using Knowledge Bases [53.054598423181844]
3つのステップからなる新しいNERカスケードアプローチを提案する。
我々は、細粒度および新興物質を正確に分類する上で、外部知識基盤の重要性を実証的に示す。
本システムは,低リソース言語設定においても,マルチコネラ2共有タスクにおいて頑健な性能を示す。
論文 参考訳(メタデータ) (2023-04-20T20:30:34Z) - Multilingual Word Sense Disambiguation with Unified Sense Representation [55.3061179361177]
本稿では,知識と教師付き多言語単語センス曖昧化(MWSD)システムを提案する。
我々は複数の言語に統一されたセンス表現を構築し、リッチソース言語から貧しい言語へアノテーションを転送することでMWSDのアノテーション不足問題に対処する。
SemEval-13およびSemEval-15データセットの評価により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-14T01:24:03Z) - DAMO-NLP at SemEval-2022 Task 11: A Knowledge-based System for
Multilingual Named Entity Recognition [94.1865071914727]
MultiCoNERは、複数の言語に対する短文と低文設定で意味的に曖昧な名前のエンティティを検出することを目的としている。
我々のチームDAMO-NLPは知識に基づくシステムを提案し、ウィキペディアに基づく多言語知識ベースを構築する。
入力文が与えられた場合,本システムは知識ベースから関連コンテキストを効果的に検索する。
我々のシステムはMultiCoNER共有タスクで13トラック中10トラックを獲得した。
論文 参考訳(メタデータ) (2022-03-01T15:29:35Z) - Task-Specific Dependency-based Word Embedding Methods [32.75244210656976]
テキスト分類のための2つのタスク依存型単語埋め込み手法を提案する。
1つ目は、依存性ベースの単語埋め込み(DWE)と呼ばれ、単語コンテキスト行列を構築するコンテキストとして、依存関係解析ツリー内の対象単語のキーワードと隣接する単語を選択する。
CEDWE(class-enhanced dependency-based word embedded)と呼ばれる2つ目の手法は、単語コンテキストと単語クラス共起統計から学習する。
論文 参考訳(メタデータ) (2021-10-26T03:09:41Z) - Seed Words Based Data Selection for Language Model Adaptation [11.59717828860318]
本稿では,テキストコーパスから文を自動的に選択する手法を提案する。
ベースラインモデルの語彙は拡張・調整され、OOVレートが低下する。
異なる測定値(OOVレート, WER, 精度, リコール)を用いて, 提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-07-20T12:08:27Z) - Adapting BERT for Word Sense Disambiguation with Gloss Selection
Objective and Example Sentences [18.54615448101203]
BERTのような事前訓練された言語モデルを用いたドメイン適応や伝達学習は、多くの自然言語処理タスクにおいて効果的なアプローチであることが証明されている。
関連性ランキングタスクとして単語感覚の曖昧さを定式化し、シーケンスペアランキングタスクで細いBERTを用いて、最も確率の高い感覚定義を選択することを提案する。
論文 参考訳(メタデータ) (2020-09-24T16:37:04Z) - SQuARE: Semantics-based Question Answering and Reasoning Engine [9.902883278247726]
自然言語QAのための汎用意味論に基づくフレームワークを提案する。
また、このフレームワークの応用であるSQuAREシステムについても述べる。
SQuAREは、テストした5つのデータセットすべてに対して100%の精度を実現します。
論文 参考訳(メタデータ) (2020-09-22T00:48:18Z) - Word Sense Disambiguation for 158 Languages using Word Embeddings Only [80.79437083582643]
文脈における単語感覚の曖昧さは人間にとって容易であるが、自動的アプローチでは大きな課題である。
本稿では,学習前の標準単語埋め込みモデルを入力として,完全に学習した単語認識のインベントリを誘導する手法を提案する。
この手法を用いて、158の言語に対して、事前訓練されたfastText単語の埋め込みに基づいて、センスインベントリのコレクションを誘導する。
論文 参考訳(メタデータ) (2020-03-14T14:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。