論文の概要: "So You Think You're Funny?": Rating the Humour Quotient in Standup
Comedy
- arxiv url: http://arxiv.org/abs/2110.12765v1
- Date: Mon, 25 Oct 2021 09:46:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 01:10:52.822919
- Title: "So You Think You're Funny?": Rating the Humour Quotient in Standup
Comedy
- Title(参考訳): 「あなたは面白いと思いますか?」:スタンドアップコメディのユーモアを評定する
- Authors: Anirudh Mittal, Pranav Jeevan, Prerak Gandhi, Diptesh Kanojia, Pushpak
Bhattacharyya
- Abstract要約: そこで我々は,聴衆の笑い声を用いて,ユーモアに満ちたスコアでトレーニングデータをアノテートするための新しいスコアリング機構を考案した。
このユーモアスコアを5点スケール(0-4)で計算するために、各クリップにおける笑いの正規化期間(笑い時間で割った笑い時間)を用いる。
このデータセットを使用して、オーディオとその対応するテキストから、5ポイントのスケールで「楽しい」スコアを提供するモデルをトレーニングします。
- 参考スコア(独自算出の注目度): 24.402762942487367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational Humour (CH) has attracted the interest of Natural Language
Processing and Computational Linguistics communities. Creating datasets for
automatic measurement of humour quotient is difficult due to multiple possible
interpretations of the content. In this work, we create a multi-modal
humour-annotated dataset ($\sim$40 hours) using stand-up comedy clips. We
devise a novel scoring mechanism to annotate the training data with a humour
quotient score using the audience's laughter. The normalized duration (laughter
duration divided by the clip duration) of laughter in each clip is used to
compute this humour coefficient score on a five-point scale (0-4). This method
of scoring is validated by comparing with manually annotated scores, wherein a
quadratic weighted kappa of 0.6 is obtained. We use this dataset to train a
model that provides a "funniness" score, on a five-point scale, given the audio
and its corresponding text. We compare various neural language models for the
task of humour-rating and achieve an accuracy of $0.813$ in terms of Quadratic
Weighted Kappa (QWK). Our "Open Mic" dataset is released for further research
along with the code.
- Abstract(参考訳): Computational Humour (CH) は自然言語処理と計算言語学のコミュニティの関心を集めている。
ユーモア商の自動測定のためのデータセットの作成は、複数の内容の解釈が可能なため困難である。
本研究では,スタンドアップコメディクリップを用いたマルチモーダルなユーモア注釈付きデータセット($40時間)を作成する。
そこで我々は,聴衆の笑い声を用いて,ユーモアに満ちたスコアでトレーニングデータをアノテートするための新しいスコアリング機構を考案した。
このユーモア係数スコアを5点スケール(0〜4)で算出するために、各クリップにおける笑いの正規化期間(笑い時間で割った笑い時間)を用いる。
手動の注釈付スコアと比較することによりスコアリング方法が検証され、二次重み付きkappaが0.6である。
このデータセットを使用して、オーディオとその対応するテキストから、5ポイントのスケールで「楽しい」スコアを提供するモデルをトレーニングします。
重み付きカッパ (QWK) を用いて, ユウアライジング作業のための様々なニューラルネットワークモデルを比較し, 精度0.813$を実現した。
私たちの"Open Mic"データセットは、コードとともにさらなる研究のためにリリースされています。
関連論文リスト
- Can Pre-trained Language Models Understand Chinese Humor? [74.96509580592004]
本論文は,事前学習言語モデル(PLM)のユーモア理解能力を体系的に研究する最初の論文である。
提案した評価フレームワークのすべてのデータ要件を完全に満たす中国の総合的ユーモアデータセットを構築した。
中国のユーモアデータセットに関する実証的研究は、ユーモア理解と生成におけるPLMの将来の最適化に非常に役立つ貴重な観察結果をもたらす。
論文 参考訳(メタデータ) (2024-07-04T18:13:38Z) - Getting Serious about Humor: Crafting Humor Datasets with Unfunny Large Language Models [27.936545041302377]
大規模言語モデル(LLM)は、テキストを編集することでユーモア検出のための合成データを生成することができる。
我々は、既存の人間のデータセット上でLLMをベンチマークし、現在のLLMは、ジョークを「不快に」する印象的な能力を示すことを示す。
我々は、GPT-4の合成データがバイリンガルアノテータによって高度に評価されているという、コード混成のイングリッシュ・ヒンディー語ユーモアデータセットにアプローチを拡張した。
論文 参考訳(メタデータ) (2024-02-23T02:58:12Z) - DeVAn: Dense Video Annotation for Video-Language Models [68.70692422636313]
実世界のビデオクリップに記述を生成する視覚言語モデルの有効性を評価するために,人間の注釈付きデータセットを提案する。
データセットには、20秒から60秒間の8.5KのYouTubeビデオクリップが含まれており、幅広いトピックや関心事をカバーしている。
論文 参考訳(メタデータ) (2023-10-08T08:02:43Z) - OxfordTVG-HIC: Can Machine Make Humorous Captions from Images? [27.899718595182172]
ユーモア生成と理解のための大規模データセットであるOxfordTVG-HIC(Humorous Image Captions)を提案する。
OxfordTVG-HICは幅広い感情的・意味的な多様性を特徴とし、アウト・オブ・コンテクストの例である。
我々は、生成されたテキストのユーモアを評価するために、OxfordTVG-HICをどのように活用できるかを示す。
論文 参考訳(メタデータ) (2023-07-21T14:58:44Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - M2H2: A Multimodal Multiparty Hindi Dataset For Humor Recognition in
Conversations [72.81164101048181]
テレビシリーズ『Shrimaan Shrimati Phir Se』の13話から6,191発の発声を含む会話におけるマルチモーダル・マルチパーティ・ヒンディー・ヒューム(M2H2)認識のためのデータセットを提案する。
それぞれの発話はユーモア/非感情ラベルでアノテートされ、音響、視覚、テキストのモダリティを含む。
M2H2データセットにおける実験結果から,マルチモーダル情報はユーモア認識のための単調な情報を補完することが示された。
論文 参考訳(メタデータ) (2021-08-03T02:54:09Z) - DeHumor: Visual Analytics for Decomposing Humor [36.300283476950796]
公言におけるユーモラスな行動を分析する視覚システムであるDeHumorを開発した。
それぞれの具体例の構成要素を直感的に明らかにするために、DeHumorはユーモラスな動画をマルチモーダルな特徴に分解する。
DeHumorはユーモアのユーモアの例として、さまざまなビルディングブロックをハイライトすることができる。
論文 参考訳(メタデータ) (2021-07-18T04:01:07Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Predicting the Humorousness of Tweets Using Gaussian Process Preference
Learning [56.18809963342249]
本稿では,人間の嗜好判断と言語アノテーションの自動生成を利用して,短文のユーモラスさのランク付けと評価を学習する確率論的アプローチを提案する。
本研究は, HAHA@IberLEF 2019データにおける数値スコアの変換と, 提案手法に必要な判定アノテーションの相互変換から生じる問題点について報告する。
論文 参考訳(メタデータ) (2020-08-03T13:05:42Z) - ColBERT: Using BERT Sentence Embedding in Parallel Neural Networks for
Computational Humor [0.0]
本稿では,ユーモアの一般的な言語理論に基づいて,短いテキストでユーモアを検出・評価するための新しいアプローチを提案する。
提案手法は,与えられたテキストの文を分離し,BERTモデルを用いて各テキストの埋め込みを生成する。
我々はこの論文に、20万の形式的な短文からなるユーモア検出のための新しいデータセットを添付した。
提案モデルでは, 一般モデル, 最先端モデルより優れるユーモア検出実験において, 0.982, 0.869のF1スコアを得た。
論文 参考訳(メタデータ) (2020-04-27T13:10:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。