論文の概要: Context-gloss Augmentation for Improving Word Sense Disambiguation
- arxiv url: http://arxiv.org/abs/2110.07174v1
- Date: Thu, 14 Oct 2021 06:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 04:30:43.033036
- Title: Context-gloss Augmentation for Improving Word Sense Disambiguation
- Title(参考訳): 単語センスの曖昧さ改善のための文脈グロス強化
- Authors: Guan-Ting Lin, Manuel Giambi
- Abstract要約: Word Sense Disambiguation (WSD)の目標は、特定の文脈において多文単語の感覚を特定することである。
文レベルと単語レベルの拡張手法がWSDの効果的な戦略であることを示す。
また,語彙知識ベースから得られるハイパーニムのグルースを付加することで,性能を向上できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of Word Sense Disambiguation (WSD) is to identify the sense of a
polysemous word in a specific context. Deep-learning techniques using BERT have
achieved very promising results in the field and different methods have been
proposed to integrate structured knowledge to enhance performance. At the same
time, an increasing number of data augmentation techniques have been proven to
be useful for NLP tasks. Building upon previous works leveraging BERT and
WordNet knowledge, we explore different data augmentation techniques on
context-gloss pairs to improve the performance of WSD. In our experiment, we
show that both sentence-level and word-level augmentation methods are effective
strategies for WSD. Also, we find out that performance can be improved by
adding hypernyms' glosses obtained from a lexical knowledge base. We compare
and analyze different context-gloss augmentation techniques, and the results
show that applying back translation on gloss performs the best.
- Abstract(参考訳): Word Sense Disambiguation (WSD)の目標は、特定の文脈において多文単語の感覚を特定することである。
BERTを用いたディープラーニング技術は、この分野において非常に有望な成果を上げており、構造化知識の統合と性能向上のための様々な手法が提案されている。
同時に、NLPタスクに有用なデータ拡張技術が増えていることが証明されている。
BERTとWordNetの知識を活用した以前の研究に基づいて、WSDの性能を改善するために、コンテキストグロスペア上で異なるデータ拡張手法を探索する。
本実験では,文レベルと単語レベルの拡張手法がWSDの効果的な戦略であることを示す。
また,語彙知識ベースから得られるハイパーニムのグルースを付加することで,性能を向上できることがわかった。
我々は,異なる文脈グロス増補手法を比較し,分析した結果,光沢への逆翻訳が最善であることが示された。
関連論文リスト
- TG-LLaVA: Text Guided LLaVA via Learnable Latent Embeddings [61.9257731511557]
視覚言語モデル(VLM)を最適化するためのテキストガイド付きLLaVA(TG-LLaVA)を提案する。
学習可能な潜伏埋め込みをブリッジとして使用し、テキスト命令を分析し、視覚エンコーダに解析結果をガイダンスとして付加する。
テキストのガイダンスによって、視覚エンコーダは、人間が質問を考えるとき、画像の最も関連性の高い部分に集中する方法と同様に、テキスト関連の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-09-15T00:38:34Z) - BERTer: The Efficient One [0.0]
本研究では、感情分析、パラフレーズ検出、意味的テキスト類似性においてBERTの性能を高めるための高度な微調整手法について検討する。
その結果,複数の微調整アーキテクチャを組み合わせる場合のモデル効率と有効性は大幅に向上した。
論文 参考訳(メタデータ) (2024-07-19T05:33:09Z) - FecTek: Enhancing Term Weight in Lexicon-Based Retrieval with Feature Context and Term-level Knowledge [54.61068946420894]
FEature Context と TErm レベルの知識モジュールを導入して,革新的な手法を提案する。
項重みの特徴コンテキスト表現を効果的に強化するために、FCM(Feature Context Module)が導入された。
また,用語レベルの知識を効果的に活用し,用語重みのモデル化プロセスをインテリジェントに導くための用語レベルの知識誘導モジュール(TKGM)を開発した。
論文 参考訳(メタデータ) (2024-04-18T12:58:36Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - Distributional Data Augmentation Methods for Low Resource Language [0.9208007322096533]
簡単なデータ拡張(EDA)は、同義語を注入して置換し、ランダムに置換することでトレーニングデータを増強する。
EDAの大きな障害の1つは、低リソース言語では容易に見つからない、多目的で完全な同義語辞書の必要性である。
本稿では,意味的単語コンテキスト情報と単語置換・拡張のためのパート・オブ・音声タグを利用する2つの拡張,EDDA(Easy Distributional Data Augmentation)とタイプ固有類似語置換(type specific similar word replacement,TSSR)を提案する。
論文 参考訳(メタデータ) (2023-09-09T19:01:59Z) - Iterative Prompt Learning for Unsupervised Backlit Image Enhancement [86.90993077000789]
そこで本研究では,CLIP-LITと略称される,非教師なしのバックライト画像強調手法を提案する。
オープンワールドのCLIPはバックライト画像と well-lit 画像の区別に有効であることを示す。
提案手法は,学習フレームワークの更新と,学習結果を視覚的に満足するまでのネットワークの強化を交互に行う。
論文 参考訳(メタデータ) (2023-03-30T17:37:14Z) - CMSBERT-CLR: Context-driven Modality Shifting BERT with Contrastive
Learning for linguistic, visual, acoustic Representations [0.7081604594416336]
言語・視覚・音響表現のためのコントラスト学習を用いたコンテキスト駆動型モダリティシフトBERT(CMSBERT-CLR)を提案する。
CMSBERT-CLRは、文脈全体の非言語的・言語的な情報を取り入れ、コントラスト学習を通じてより効果的にモダリティを整合させる。
実験では,本手法が最先端の成果をもたらすことを実証した。
論文 参考訳(メタデータ) (2022-08-21T08:21:43Z) - Syntax-driven Data Augmentation for Named Entity Recognition [3.0603554929274908]
低リソース設定では、データ拡張戦略が一般的に活用され、パフォーマンスが向上する。
名前付きエンティティ認識を改善するために,簡易なマスク付き言語モデル置換法と選択木変異を用いた拡張法を比較した。
論文 参考訳(メタデータ) (2022-08-15T01:24:55Z) - Data Augmentation for Voice-Assistant NLU using BERT-based
Interchangeable Rephrase [39.09474362100266]
本論文では,バイトペア符号化に基づくデータ拡張手法とBERTのような自己認識モデルを導入して,話し言葉理解タスクのパフォーマンス向上を図る。
本手法は,音声アシスタントのドメインと意図の分類タスクや,発話の自然性や意味的類似性に着目したユーザスタディに強く貢献することを示す。
論文 参考訳(メタデータ) (2021-04-16T17:53:58Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Syntax-aware Data Augmentation for Neural Machine Translation [76.99198797021454]
本稿では,ニューラルマシン翻訳のための新しいデータ拡張戦略を提案する。
文中の役割を考慮し,単語選択のための文特異的確率を設定した。
提案手法はWMT14の英語-ドイツ語データセットとIWSLT14のドイツ語-英語データセットを用いて評価する。
論文 参考訳(メタデータ) (2020-04-29T13:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。