論文の概要: A Unified Framework for Pun Generation with Humor Principles
- arxiv url: http://arxiv.org/abs/2210.13055v1
- Date: Mon, 24 Oct 2022 09:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:54:09.544899
- Title: A Unified Framework for Pun Generation with Humor Principles
- Title(参考訳): ユーモア原理を用いたパン生成のための統一フレームワーク
- Authors: Yufei Tian, Divyanshu Sheth and Nanyun Peng
- Abstract要約: 我々は、ホモフォニックとホモグラフィックの句を生成する統一的な枠組みを提案する。
句の3つの言語的属性を言語モデル(曖昧さ、特異性、驚き)に組み込む。
- 参考スコア(独自算出の注目度): 31.70470387786539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a unified framework to generate both homophonic and homographic
puns to resolve the split-up in existing works. Specifically, we incorporate
three linguistic attributes of puns to the language models: ambiguity,
distinctiveness, and surprise. Our framework consists of three parts: 1) a
context words/phrases selector to promote the aforementioned attributes, 2) a
generation model trained on non-pun sentences to incorporate the context
words/phrases into the generation output, and 3) a label predictor that learns
the structure of puns which is used to steer the generation model at inference
time. Evaluation results on both pun types demonstrate the efficacy of our
model over strong baselines.
- Abstract(参考訳): 我々は,既存の作品の分割を解決するために,ホモフォニックとホモグラフィックの句を生成する統一的な枠組みを提案する。
具体的には,多義性,特徴性,驚きという3つの言語的特徴を言語モデルに取り入れた。
私たちの枠組みは3つの部分からなる。
1) 上記属性を促進させる文脈語/フレーズセレクタ
2) 文脈語/フレーズを生成出力に組み込むために、非句文で訓練された生成モデル
3) 推定時に生成モデルを操るために使用される句の構造を学習するラベル予測器。
両パンプ型の評価結果は, 強いベースライン上でのモデルの有効性を示した。
関連論文リスト
- Does Liking Yellow Imply Driving a School Bus? Semantic Leakage in Language Models [113.58052868898173]
我々は、モデルが予期しない方法でプロンプトから生成元に無関係な情報を漏らす現象を識別し、特徴付けする。
本研究では,人間と自動の両方でセマンティックリークを検出するための評価設定を提案し,その振る舞いを診断するための多様なテストスイートをキュレートし,13のフラッグシップモデルにおいて重要なセマンティックリークを測定する。
論文 参考訳(メタデータ) (2024-08-12T22:30:55Z) - Not wacky vs. definitely wacky: A study of scalar adverbs in pretrained
language models [0.0]
BERT、RoBERTa、GPT-3といった現代の事前訓練された言語モデルは、古典的な静的単語の埋め込みよりも論理的なタスクでより良いパフォーマンスを期待している。
本稿では,BERT,RoBERTa,GPT-2,GPT-3が,これらの共通語に対する一般人的な知識を示す範囲について検討する。
論理的な意味のいくつかの側面を捉えているにもかかわらず、モデルは人間のパフォーマンスにかなり劣っていることが分かりました。
論文 参考訳(メタデータ) (2023-05-25T18:56:26Z) - Context-Situated Pun Generation [42.727010784168115]
本稿では,キーワードの集合で表される特定のコンテキストが提供される新しいタスク,文脈定型句生成を提案する。
その課題は、まずコンテキストに適した句語を識別し、次に、コンテキストキーワードと識別された句語に基づいて句を生成することである。
その結果,トップ検索語のうち69%が文脈選択語の生成に利用でき,生成モジュールは31%の成功率が得られることがわかった。
論文 参考訳(メタデータ) (2022-10-24T18:24:48Z) - ExPUNations: Augmenting Puns with Keywords and Explanations [88.58174386894913]
我々は、キーワードの詳細なクラウドソースアノテーションで既存の句のデータセットを拡張する。
これは、パント専用の広範囲できめ細かなアノテーションを備えた最初のユーモアデータセットである。
句分類支援のための説明生成とキーワード条件付き句生成という2つのタスクを提案する。
論文 参考訳(メタデータ) (2022-10-24T18:12:02Z) - AmbiPun: Generating Humorous Puns with Ambiguous Context [31.81213062995652]
我々のモデルはまず、逆辞書を通して関連する概念のリストを作成する。
次に、ワンショットGPT3を用いて文脈語を生成し、両方の概念から文脈語を組み込んだ句を生成する。
人間の評価から,本手法は52%の時間でパントを発生させることができた。
論文 参考訳(メタデータ) (2022-05-04T00:24:11Z) - Investigating Cross-Linguistic Adjective Ordering Tendencies with a
Latent-Variable Model [66.84264870118723]
本稿では,多言語形容詞順序付けを潜在変数モデルとして,初めて純粋コーパス駆動モデルを提案する。
我々は普遍的、言語横断的、階層的形容詞順序付け傾向の存在の強い確固たる証拠を提供する。
論文 参考訳(メタデータ) (2020-10-09T18:27:55Z) - "The Boating Store Had Its Best Sail Ever": Pronunciation-attentive
Contextualized Pun Recognition [80.59427655743092]
そこで我々は,ヒトのユーモアを知覚するために,発音適応型文脈パウン認識(PCPR)を提案する。
PCPRは、周囲の文脈とその対応する音韻記号の関連を捉えることにより、文中の各単語の文脈化された表現を導出する。
その結果,提案手法はパント検出や位置情報タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-29T20:12:20Z) - SongNet: Rigid Formats Controlled Text Generation [51.428634666559724]
この問題に対処するために,SongNetというシンプルでエレガントなフレームワークを提案する。
フレームワークのバックボーンは、Transformerベースの自動回帰言語モデルである。
事前学習および微調整のフレームワークは、生成品質をさらに向上するために設計されている。
論文 参考訳(メタデータ) (2020-04-17T01:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。