論文の概要: Exploring Euphemism Detection in Few-Shot and Zero-Shot Settings
- arxiv url: http://arxiv.org/abs/2210.12926v1
- Date: Mon, 24 Oct 2022 02:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:44:48.471707
- Title: Exploring Euphemism Detection in Few-Shot and Zero-Shot Settings
- Title(参考訳): Few-ShotとZero-Shot設定におけるエフェミズム検出の探索
- Authors: Sedrick Scott Keh
- Abstract要約: この研究は、EMNLP 2022 FigLang Workshopで提案されたEuphemism Detection Shared Taskに基づいており、ほとんどショットやゼロショットの設定にまで拡張されている。
共有タスクからのデータセットを用いて,数発,ゼロショットの定式化を行い,RoBERTaとGPT-3を用いて実験を行った。
以上の結果から, 言語モデルでは, 学習中に見つからない新しい用語であっても, ユーフェミズムの用語を比較的よく分類することができ, ユーフェミズムに関連する高次概念を捉えることが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work builds upon the Euphemism Detection Shared Task proposed in the
EMNLP 2022 FigLang Workshop, and extends it to few-shot and zero-shot settings.
We demonstrate a few-shot and zero-shot formulation using the dataset from the
shared task, and we conduct experiments in these settings using RoBERTa and
GPT-3. Our results show that language models are able to classify euphemistic
terms relatively well even on new terms unseen during training, indicating that
it is able to capture higher-level concepts related to euphemisms.
- Abstract(参考訳): この研究は、EMNLP 2022 FigLang Workshopで提案されたEuphemism Detection Shared Taskに基づいており、ほとんどショットやゼロショットの設定にまで拡張されている。
共有タスクから得られたデータセットを用いて,数ショット,ゼロショットの定式化を行い,RoBERTaとGPT-3を用いて実験を行った。
以上の結果から, 言語モデルでは, 学習中に見つからない新しい用語であっても, ユーフェミズムの用語を比較的よく分類することが可能であることが示唆された。
関連論文リスト
- Enabling Natural Zero-Shot Prompting on Encoder Models via Statement-Tuning [55.265138447400744]
ステートメントチューニングは、有限文の集合として識別タスクをモデル化し、エンコーダモデルを訓練し、潜在的なステートメントを識別してラベルを決定するテクニックである。
その結果, ステートメント・チューニングは, パラメータが著しく少ない最先端のLCMと比較して, 競争性能が向上することを示した。
この研究は、いくつかの設計選択が少ショットとゼロショットの一般化に与える影響を調査し、ステートメントチューニングが控えめなトレーニングデータで高いパフォーマンスを達成できることを明らかにした。
論文 参考訳(メタデータ) (2024-04-19T14:05:03Z) - Anti-LM Decoding for Zero-shot In-context Machine Translation [59.26037416204157]
本研究は, 文脈内機械翻訳の弱点に対処するために, 減衰係数を付加したアンチランゲージモデルを提案する。
3つのモデルタイプとサイズ,3つの言語方向,およびグリージーデコーディングとビームサーチの両方に対して実験を行う。
論文 参考訳(メタデータ) (2023-11-14T17:09:43Z) - Unsupervised Lexical Simplification with Context Augmentation [55.318201742039]
対象単語とその文脈が与えられた場合、対象コンテキストと単言語データからサンプル化した追加コンテキストに基づいて置換語を生成する。
我々は、TSAR-2022共有タスクにおいて、英語、ポルトガル語、スペイン語で実験を行い、我々のモデルは、すべての言語で、他の教師なしシステムよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-11-01T05:48:05Z) - The Eval4NLP 2023 Shared Task on Prompting Large Language Models as
Explainable Metrics [36.52897053496835]
生成型大規模言語モデル (LLM) は、タスクに関連する最小あるいは全くの例でタスクを解く顕著な能力を示している。
Eval4NLP 2023共有タスクを導入し、参加者に対して機械翻訳(MT)と要約評価のためのプロンプトとスコア抽出について検討する。
本稿では,参加者のアプローチの概要を述べるとともに,MTと要約データセットの3つの言語対にまたがる新しい参照なしテストセットについて評価する。
論文 参考訳(メタデータ) (2023-10-30T17:55:08Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Pre-training to Match for Unified Low-shot Relation Extraction [37.625078897220305]
ローショット関係抽出は、サンプルがほとんど、あるいは全くない新しい関係を認識することを目的としている。
ローショットREとゼロショットREは2つの代表的なローショットREタスクである。
ローショット関係抽出を統一するマルチコースマッチングネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-23T08:43:52Z) - Skill Induction and Planning with Latent Language [94.55783888325165]
我々は、ゴールがハイレベルなサブタスク記述のシーケンスを生成するアクションシーケンスの生成モデルを定式化する。
本稿では、このモデルを、主に注釈のないデモを用いて、名前付きハイレベルなサブタスクのシーケンスに解析する方法について述べる。
訓練されたモデルでは、自然言語コマンドの空間はスキルのライブラリを索引付けする;エージェントはこれらのスキルを使って、新しい目標に適した高いレベルの命令シーケンスを生成する。
論文 参考訳(メタデータ) (2021-10-04T15:36:32Z) - AStitchInLanguageModels: Dataset and Methods for the Exploration of
Idiomaticity in Pre-Trained Language Models [7.386862225828819]
本研究は、MWEを含む自然発生文のデータセットを、細かな意味の集合に手作業で分類する。
我々は,このデータセットを,idiomを含む文の表現生成における言語モデルの有効性と,idiomを用いた言語モデルの有効性を検証するために,2つのタスクで使用する。
論文 参考訳(メタデータ) (2021-09-09T16:53:17Z) - Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning [57.4036085386653]
文ペア分類タスクのプロンプトベースモデルでは,語彙重なりに基づく推論の一般的な落とし穴が依然として残っていることを示す。
そこで,プレトレーニングウェイトを保存する正規化を加えることは,この破壊的な微調整の傾向を緩和するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-09T10:10:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。