論文の概要: Tapping BERT for Preposition Sense Disambiguation
- arxiv url: http://arxiv.org/abs/2111.13972v1
- Date: Sat, 27 Nov 2021 19:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 11:44:53.844483
- Title: Tapping BERT for Preposition Sense Disambiguation
- Title(参考訳): プレポジションセンス曖昧化のためのテーピングBERT
- Authors: Siddhesh Pawar, Shyam Thombre, Anirudh Mittal, Girishkumar Ponkiya,
Pushpak Bhattacharyya
- Abstract要約: 本稿では,いかなる言語ツールも用いていないPSD(preposition sense disambiguation)の新たな方法論を提案する。
教師付き設定では、前置詞に感覚を付加した文を機械学習モデルに提示する。
潜在表現は、Multi Layer Perceptronを使用して正しいセンスIDに分類される。
我々の手法は86.85%の精度を与え、最先端技術よりも優れている。
- 参考スコア(独自算出の注目度): 23.42775742759565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prepositions are frequently occurring polysemous words. Disambiguation of
prepositions is crucial in tasks like semantic role labelling, question
answering, text entailment, and noun compound paraphrasing. In this paper, we
propose a novel methodology for preposition sense disambiguation (PSD), which
does not use any linguistic tools. In a supervised setting, the machine
learning model is presented with sentences wherein prepositions have been
annotated with senses. These senses are IDs in what is called The Preposition
Project (TPP). We use the hidden layer representations from pre-trained BERT
and BERT variants. The latent representations are then classified into the
correct sense ID using a Multi Layer Perceptron. The dataset used for this task
is from SemEval-2007 Task-6. Our methodology gives an accuracy of 86.85% which
is better than the state-of-the-art.
- Abstract(参考訳): 前置詞はしばしば多義語である。
前置詞の曖昧さは、意味的な役割のラベル付け、質問応答、テキストのエンテーメント、名詞の複合表現といったタスクにおいて重要である。
本稿では,言語ツールを使用しないPSD(preposition sense disambiguation)の新たな方法論を提案する。
教師付き設定では、前置詞に感覚を付加した文を機械学習モデルに提示する。
これらの感覚は、The Preposition Project (TPP)と呼ばれる分野のIDである。
我々は、事前訓練されたBERTとBERTの層表現を使用する。
次に、潜在表現をMulti Layer Perceptronを使用して正しいセンスIDに分類する。
このタスクで使用されるデータセットはsemeval-2007 task-6からである。
我々の手法は86.85%の精度を与え、最先端技術よりも優れている。
関連論文リスト
- Breaking Down Word Semantics from Pre-trained Language Models through
Layer-wise Dimension Selection [0.0]
本稿では,レイヤ間の中間出力にバイナリマスクを適用することにより,BERTから意味感覚を分離することを目的とする。
2つの異なる文の目的語が同じ意味を持つかどうかを判定するために、二分分類により、アンタングル埋め込みを評価する。
論文 参考訳(メタデータ) (2023-10-08T11:07:19Z) - Word Sense Induction with Knowledge Distillation from BERT [6.88247391730482]
本稿では、文脈における単語の感覚に注意を払って、事前学習された言語モデル(BERT)から複数の単語感覚を抽出する手法を提案する。
文脈的単語類似性および感覚誘導タスクの実験は、この手法が最先端のマルチセンス埋め込みよりも優れているか、あるいは競合していることを示している。
論文 参考訳(メタデータ) (2023-04-20T21:05:35Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - GSRFormer: Grounded Situation Recognition Transformer with Alternate
Semantic Attention Refinement [73.73599110214828]
グラウンドドコンディション認識(GSR)は、人間のイベント理解のための画像の構造化されたセマンティックサマリーを生成することを目的としている。
オブジェクト検出とイメージキャプションタスクにインスパイアされた既存のメソッドは、2段階のフレームワークを使用するのが一般的である。
本稿では,動詞と役割の双方向関係の活用に焦点をあてた,新しい2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-18T17:13:59Z) - Contextualized Semantic Distance between Highly Overlapped Texts [85.1541170468617]
テキスト編集や意味的類似性評価といった自然言語処理タスクにおいて、ペア化されたテキストに重複が頻繁に発生する。
本稿では,マスク・アンド・予測戦略を用いてこの問題に対処することを目的とする。
本稿では,最も長い単語列の単語を隣接する単語とみなし,その位置の分布を予測するためにマスク付き言語モデリング(MLM)を用いる。
セマンティックテキスト類似性の実験では、NDDは様々な意味的差異、特に高い重なり合うペアテキストに対してより敏感であることが示されている。
論文 参考訳(メタデータ) (2021-10-04T03:59:15Z) - UCPhrase: Unsupervised Context-aware Quality Phrase Tagging [63.86606855524567]
UCPhraseは、教師なしの文脈対応のフレーズタグである。
我々は,一貫した単語列から,高品質なフレーズを銀のラベルとして表現する。
我々の設計は、最先端の事前訓練、教師なし、遠隔管理の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-28T19:44:24Z) - The Preposition Project [0.0]
Preposition Projectは、自然言語処理アプリケーションでの使用に適したプリポジション感覚のデータベースを提供するように設計されている。
FrameNetコーパスのプリポジションは、現在の辞書のセンスインベントリを使用して曖昧にされ、プリポジションの意味の包括的な処理によって導かれる。
論文 参考訳(メタデータ) (2021-04-18T17:45:30Z) - On the Sentence Embeddings from Pre-trained Language Models [78.45172445684126]
本稿では,BERT埋め込みにおける意味情報が完全に活用されていないことを論じる。
BERTは常に文の非滑らかな異方性意味空間を誘導し,その意味的類似性を損なう。
本稿では,非教師対象で学習した正規化フローにより,異方性文の埋め込み分布を滑らかで等方性ガウス分布に変換することを提案する。
論文 参考訳(メタデータ) (2020-11-02T13:14:57Z) - Adapting BERT for Word Sense Disambiguation with Gloss Selection
Objective and Example Sentences [18.54615448101203]
BERTのような事前訓練された言語モデルを用いたドメイン適応や伝達学習は、多くの自然言語処理タスクにおいて効果的なアプローチであることが証明されている。
関連性ランキングタスクとして単語感覚の曖昧さを定式化し、シーケンスペアランキングタスクで細いBERTを用いて、最も確率の高い感覚定義を選択することを提案する。
論文 参考訳(メタデータ) (2020-09-24T16:37:04Z) - Quantifying the Contextualization of Word Representations with Semantic
Class Probing [8.401007663676214]
事前訓練された言語モデルは、多くのNLPタスクにおいて、新しい最先端技術を実現している。
単語のセマンティッククラスが文脈化された埋め込みから推測できる範囲を研究することにより、文脈化の量、すなわち、単語が文脈内でどのように解釈されるかの定量化を行う。
論文 参考訳(メタデータ) (2020-04-25T17:49:37Z) - Adversarial Transfer Learning for Punctuation Restoration [58.2201356693101]
句読点予測のためのタスク不変知識を学習するために,逆多タスク学習を導入する。
IWSLT2011データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-04-01T06:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。