論文の概要: "Judge me by my size (noun), do you?'' YodaLib: A Demographic-Aware
Humor Generation Framework
- arxiv url: http://arxiv.org/abs/2006.00578v1
- Date: Sun, 31 May 2020 18:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 12:50:50.194794
- Title: "Judge me by my size (noun), do you?'' YodaLib: A Demographic-Aware
Humor Generation Framework
- Title(参考訳): 『私のサイズ(名詞)で判断する』ヨーダリブ:人口動態を意識したユーモア生成フレームワーク
- Authors: Aparna Garimella, Carmen Banea, Nabil Hossain, Rada Mihalcea
- Abstract要約: 本研究では,マッド・リビアス・ストーリーの自動ユーモア生成フレームワークを提案する。
我々は、不完全文中の位置バイアス付き単語充填を予測するためにBERTプラットフォームを構築し、文章中の位置バイアス付きユーモアを分類するためにBERTを微調整する。
これらのコンポーネントを活用して,適切な単語や文を選択してランク付けする,完全自動化されたMad Libsスタイルのユーモア生成フレームワークであるYodaLibを開発した。
- 参考スコア(独自算出の注目度): 31.115389392654492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The subjective nature of humor makes computerized humor generation a
challenging task. We propose an automatic humor generation framework for
filling the blanks in Mad Libs stories, while accounting for the demographic
backgrounds of the desired audience. We collect a dataset consisting of such
stories, which are filled in and judged by carefully selected workers on Amazon
Mechanical Turk. We build upon the BERT platform to predict location-biased
word fillings in incomplete sentences, and we fine tune BERT to classify
location-specific humor in a sentence. We leverage these components to produce
YodaLib, a fully-automated Mad Libs style humor generation framework, which
selects and ranks appropriate candidate words and sentences in order to
generate a coherent and funny story tailored to certain demographics. Our
experimental results indicate that YodaLib outperforms a previous
semi-automated approach proposed for this task, while also surpassing human
annotators in both qualitative and quantitative analyses.
- Abstract(参考訳): ユーモアの主観的性質は、コンピュータ化されたユーモア生成を困難な課題にする。
本稿では,mad libsストーリーの空白を埋めるためのユーモア自動生成フレームワークを提案する。
このようなストーリーで構成されたデータセットを収集し、Amazon Mechanical Turk上で慎重に選択された労働者によって判断される。
我々は、不完全文中の位置バイアス付き単語充填を予測するためにBERTプラットフォームを構築し、文章中の位置バイアス付きユーモアを分類するためにBERTを微調整する。
対象語や文を選択・分類し,特定の年齢層に合わせたコヒーレントで面白い物語を生成する,完全自動化されたmad libsスタイルのユーモア生成フレームワークであるyodalibを開発した。
実験の結果,YodaLibは従来提案されていた半自動的手法よりも優れており,定性的・定量的分析においても人間のアノテータを上回っていることがわかった。
関連論文リスト
- Can Pre-trained Language Models Understand Chinese Humor? [74.96509580592004]
本論文は,事前学習言語モデル(PLM)のユーモア理解能力を体系的に研究する最初の論文である。
提案した評価フレームワークのすべてのデータ要件を完全に満たす中国の総合的ユーモアデータセットを構築した。
中国のユーモアデータセットに関する実証的研究は、ユーモア理解と生成におけるPLMの将来の最適化に非常に役立つ貴重な観察結果をもたらす。
論文 参考訳(メタデータ) (2024-07-04T18:13:38Z) - Getting Serious about Humor: Crafting Humor Datasets with Unfunny Large Language Models [27.936545041302377]
大規模言語モデル(LLM)は、テキストを編集することでユーモア検出のための合成データを生成することができる。
我々は、既存の人間のデータセット上でLLMをベンチマークし、現在のLLMは、ジョークを「不快に」する印象的な能力を示すことを示す。
我々は、GPT-4の合成データがバイリンガルアノテータによって高度に評価されているという、コード混成のイングリッシュ・ヒンディー語ユーモアデータセットにアプローチを拡張した。
論文 参考訳(メタデータ) (2024-02-23T02:58:12Z) - ExPUNations: Augmenting Puns with Keywords and Explanations [88.58174386894913]
我々は、キーワードの詳細なクラウドソースアノテーションで既存の句のデータセットを拡張する。
これは、パント専用の広範囲できめ細かなアノテーションを備えた最初のユーモアデータセットである。
句分類支援のための説明生成とキーワード条件付き句生成という2つのタスクを提案する。
論文 参考訳(メタデータ) (2022-10-24T18:12:02Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - DeHumor: Visual Analytics for Decomposing Humor [36.300283476950796]
公言におけるユーモラスな行動を分析する視覚システムであるDeHumorを開発した。
それぞれの具体例の構成要素を直感的に明らかにするために、DeHumorはユーモラスな動画をマルチモーダルな特徴に分解する。
DeHumorはユーモアのユーモアの例として、さまざまなビルディングブロックをハイライトすることができる。
論文 参考訳(メタデータ) (2021-07-18T04:01:07Z) - Predicting the Humorousness of Tweets Using Gaussian Process Preference
Learning [56.18809963342249]
本稿では,人間の嗜好判断と言語アノテーションの自動生成を利用して,短文のユーモラスさのランク付けと評価を学習する確率論的アプローチを提案する。
本研究は, HAHA@IberLEF 2019データにおける数値スコアの変換と, 提案手法に必要な判定アノテーションの相互変換から生じる問題点について報告する。
論文 参考訳(メタデータ) (2020-08-03T13:05:42Z) - Enabling Language Models to Fill in the Blanks [81.59381915581892]
文書中の任意の位置にあるテキストの欠落を予測するタスクである,テキストを埋め込むためのシンプルなアプローチを提案する。
我々は、人工的にマスキングされたテキストと隠蔽されたテキストの連結を含むシーケンスに基づいて、オフザシェルフ言語モデル(またはファインチューン)を訓練する。
言語モデリングにより,この手法により,3つの分野(短編,科学的な要約,歌詞)において,LMが文全体を効果的に埋め込むことができることを示す。
論文 参考訳(メタデータ) (2020-05-11T18:00:03Z) - ColBERT: Using BERT Sentence Embedding in Parallel Neural Networks for
Computational Humor [0.0]
本稿では,ユーモアの一般的な言語理論に基づいて,短いテキストでユーモアを検出・評価するための新しいアプローチを提案する。
提案手法は,与えられたテキストの文を分離し,BERTモデルを用いて各テキストの埋め込みを生成する。
我々はこの論文に、20万の形式的な短文からなるユーモア検出のための新しいデータセットを添付した。
提案モデルでは, 一般モデル, 最先端モデルより優れるユーモア検出実験において, 0.982, 0.869のF1スコアを得た。
論文 参考訳(メタデータ) (2020-04-27T13:10:11Z) - Stimulating Creativity with FunLines: A Case Study of Humor Generation
in Headlines [9.367224590861913]
FunLinesは、プレイヤーがニュースの見出しを編集して面白いものにする競争ゲームだ。
FunLinesはユーモア生成プロセスを楽しく、インタラクティブで、コラボレーティブで、報奨と教育に役立てる。
過去のベンチマークより優れているユーモア分類モデルをトレーニングすることで,このデータの有効性を示す。
論文 参考訳(メタデータ) (2020-02-05T22:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。