論文の概要: FEED PETs: Further Experimentation and Expansion on the Disambiguation
of Potentially Euphemistic Terms
- arxiv url: http://arxiv.org/abs/2306.00217v1
- Date: Wed, 31 May 2023 22:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 19:08:52.199212
- Title: FEED PETs: Further Experimentation and Expansion on the Disambiguation
of Potentially Euphemistic Terms
- Title(参考訳): feed pets: ユーフェミズム用語の曖昧さ回避に関するさらなる実験と拡張
- Authors: Patrick Lee, Iyanuoluwa Shode, Alain Chirino Trujillo, Yuan Zhao,
Olumide Ebenezer Ojo, Diana Cuervas Plancarte, Anna Feldman, Jing Peng
- Abstract要約: 我々は,ヨルバ語,スペイン語,マンダリン中国語の3つの異なる言語で,新しいエウヘミズムコーパスを提示する。
トランスフォーマーは、あいまいなPETを分類するのが一般的である。
我々は,多言語トランスフォーマーモデルmBERTとXLM-RoBERTaを用いて,各言語でエウヘミズムの曖昧化実験を行う。
- 参考スコア(独自算出の注目度): 3.1648534725322666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformers have been shown to work well for the task of English euphemism
disambiguation, in which a potentially euphemistic term (PET) is classified as
euphemistic or non-euphemistic in a particular context. In this study, we
expand on the task in two ways. First, we annotate PETs for vagueness, a
linguistic property associated with euphemisms, and find that transformers are
generally better at classifying vague PETs, suggesting linguistic differences
in the data that impact performance. Second, we present novel euphemism corpora
in three different languages: Yoruba, Spanish, and Mandarin Chinese. We perform
euphemism disambiguation experiments in each language using multilingual
transformer models mBERT and XLM-RoBERTa, establishing preliminary results from
which to launch future work.
- Abstract(参考訳): トランスフォーマーは英語のエウヘミズムの曖昧さの課題に対してうまく機能し、ある特定の文脈において、潜在的エウヘミズム用語(PET)はエウヘミズムまたは非エウヘミズムに分類される。
本研究では,タスクを2つの方法で拡張する。
まず,ペットを曖昧性にアノテートし,その言語特性から,トランスフォーマーが一般に曖昧なペットの分類に優れていることを見出し,パフォーマンスに影響を与えるデータにおける言語的差異を示唆する。
第2に, ヨルバ語, スペイン語, マンダリン中国語の3つの異なる言語で, 小説 euphemism corpora を提示する。
我々は、多言語トランスフォーマーモデルmBERTとXLM-RoBERTaを用いて、各言語でエウヘミズムの曖昧化実験を行い、今後の作業を開始するための予備的な結果を確立した。
関連論文リスト
- Turkish Delights: a Dataset on Turkish Euphemisms [1.7614751781649955]
この研究は、潜在的至上主義用語(PET)に関する現在の計算作業をトルコ語に拡張する。
本稿では,トルコのPETデータセットについて紹介する。
トルコ語におけるPETのエウヘミスティックな例と非エウヘミスティックな例を挙げる。
論文 参考訳(メタデータ) (2024-07-17T22:13:42Z) - MEDs for PETs: Multilingual Euphemism Disambiguation for Potentially
Euphemistic Terms [10.154915854525928]
マルチリンガル・クロスリンガル・セッティングにおいて,多言語変換モデル (XLM-RoBERTa) を訓練し,潜在的エフェミスティック・用語 (PET) の曖昧さを解消する。
統計的に有意なマージンによる単言語モデルと比較して,多言語モデルの方がタスク上でより優れた性能を示すことを示す。
フォローアップ分析では,死や身体機能などの普遍的な「カテゴリー」に注目した。
論文 参考訳(メタデータ) (2024-01-25T21:38:30Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - A Report on the Euphemisms Detection Shared Task [2.9972063833424216]
本稿では,EMNLP 2022と共同で開催されている第3回言語処理ワークショップ(2022図)の共用課題について述べる。
参加者は、入力テキストを入力し、その中にエウヘミズムが含まれているかどうかを識別する、エウヘミズム検出タスクを調査するために招待された。
入力データは、GloWbEコーパスから収集された潜在的発語(PET)を含む文のコーパスである。
論文 参考訳(メタデータ) (2022-11-23T22:06:35Z) - Shapley Head Pruning: Identifying and Removing Interference in
Multilingual Transformers [54.4919139401528]
言語固有のパラメータを識別・解析することで干渉を減らすことができることを示す。
固定モデルから同定された注目ヘッドを除去することで、文分類と構造予測の両方において、ターゲット言語の性能が向上することを示す。
論文 参考訳(メタデータ) (2022-10-11T18:11:37Z) - Searching for PETs: Using Distributional and Sentiment-Based Methods to
Find Potentially Euphemistic Terms [2.666791490663749]
本稿では,言語的に駆動される概念の証明として,潜在的にエフェヘミスティックな用語(PET)を求めることを提案する。
PETは特定の意味のある話題に対して一般的に使用される傾向があることを認識して,文から句候補を選択・フィルタリングするために分布類似性を利用する。
本研究は, 単語・多語PETの検出に有効であることを示すために, ユープレキシムを含む文のコーパスを用いて実験を行った。
論文 参考訳(メタデータ) (2022-05-20T22:21:21Z) - CATs are Fuzzy PETs: A Corpus and Analysis of Potentially Euphemistic
Terms [2.666791490663749]
本研究は,GloWbEコーパスのサンプルテキストとともに,潜在的なエキシマティック用語(PET)のコーパスを提示する。
その結果,エキシマティックテキストの感情分析により,PETは一般的に否定的感情や攻撃的な感情を減少させることがわかった。
アノテーションタスクにおいて,PETをエウヘミスティックかどうかのラベル付けを依頼される場合,不一致の事例を観察する。
論文 参考訳(メタデータ) (2022-05-05T16:01:39Z) - Verb Knowledge Injection for Multilingual Event Processing [50.27826310460763]
動詞のセマンティック・シンタクティックな振る舞いに関する明示的な情報を注入することでLMプリトレーニングトランスフォーマーの性能が向上するかどうかを検討する。
まず,動詞知識の注入が英語イベント抽出のパフォーマンス向上につながることを示す。
次に、他の言語でのイベント抽出のための動詞アダプタの有用性を探ります。
論文 参考訳(メタデータ) (2020-12-31T03:24:34Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Improving Sentiment Analysis over non-English Tweets using Multilingual
Transformers and Automatic Translation for Data-Augmentation [77.69102711230248]
我々は、英語のつぶやきを事前学習し、自動翻訳を用いてデータ拡張を適用して非英語の言語に適応する多言語トランスフォーマーモデルを提案する。
我々のフランス語、スペイン語、ドイツ語、イタリア語での実験は、この手法が非英語のツイートの小さなコーパスよりも、トランスフォーマーの結果を改善する効果的な方法であることを示唆している。
論文 参考訳(メタデータ) (2020-10-07T15:44:55Z) - Is Supervised Syntactic Parsing Beneficial for Language Understanding?
An Empirical Investigation [71.70562795158625]
従来のNLPは、高レベルセマンティック言語理解(LU)の成功に必要な構文解析を長い間保持(教師付き)してきた。
近年のエンドツーエンドニューラルネットワークの出現、言語モデリング(LM)による自己監視、および幅広いLUタスクにおける成功は、この信念に疑問を投げかけている。
本研究では,LM-Pretrained Transformer Network の文脈における意味的LUに対する教師あり構文解析の有用性を実証的に検討する。
論文 参考訳(メタデータ) (2020-08-15T21:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。