論文の概要: When to Laugh and How Hard? A Multimodal Approach to Detecting Humor and
its Intensity
- arxiv url: http://arxiv.org/abs/2211.01889v1
- Date: Thu, 3 Nov 2022 15:22:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 13:16:43.339337
- Title: When to Laugh and How Hard? A Multimodal Approach to Detecting Humor and
its Intensity
- Title(参考訳): 笑うのはいつ?
ユーモア検出のためのマルチモーダルアプローチとその強度
- Authors: Khalid Alnajjar, Mika H\"am\"al\"ainen, J\"org Tiedemann, Jorma
Laaksonen, Mikko Kurimo
- Abstract要約: マルチモーダルデータを用いたフレンズTV番組におけるユーモアの自動検出手法を提案する。
予告された笑いはユーモアを示す注釈として使われ、観客の笑いの長さは、あるジョークがどんなに面白いかを教えてくれる。
その結果,発話の78%がユーモラスであるか否か,600ミリ秒の平均絶対誤差で発話がどれだけ長く続くべきかを正確に検出できることがわかった。
- 参考スコア(独自算出の注目度): 14.050042201421206
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Prerecorded laughter accompanying dialog in comedy TV shows encourages the
audience to laugh by clearly marking humorous moments in the show. We present
an approach for automatically detecting humor in the Friends TV show using
multimodal data. Our model is capable of recognizing whether an utterance is
humorous or not and assess the intensity of it. We use the prerecorded laughter
in the show as annotation as it marks humor and the length of the audience's
laughter tells us how funny a given joke is. We evaluate the model on episodes
the model has not been exposed to during the training phase. Our results show
that the model is capable of correctly detecting whether an utterance is
humorous 78% of the time and how long the audience's laughter reaction should
last with a mean absolute error of 600 milliseconds.
- Abstract(参考訳): コメディ番組のダイアログを伴って録音された笑いは、観客にユーモラスな瞬間を明確にマークすることで笑わせる。
本稿では,マルチモーダルデータを用いた友人番組におけるユーモアの自動検出手法を提案する。
我々のモデルは、発話がユーモラスかどうかを認識し、その強度を評価することができる。
予告された笑いはユーモアを示す注釈として使われ、観客の笑いの長さは、あるジョークがどんなに面白いかを教えてくれる。
トレーニング期間中に,モデルが露出していないエピソードのモデルを評価した。
その結果, 発話の78%がユーモラスであるのか, 笑いの反応が600ミリ秒の平均的な絶対誤差でどれくらい続くべきかを, 本モデルが正しく検出できることがわかった。
関連論文リスト
- Making Flow-Matching-Based Zero-Shot Text-to-Speech Laugh as You Like [49.2096391012794]
ELaTEはゼロショットのTSであり、短い音声プロンプトに基づいて、あらゆる話者の自然な笑い声を生成することができる。
本研究では,条件付きフローマッチングに基づくゼロショットTSに基づくモデルを開発した。
ELaTE は従来のモデルに比べて格段に高い品質と制御性で笑い音声を生成することができることを示す。
論文 参考訳(メタデータ) (2024-02-12T02:58:10Z) - FunnyNet-W: Multimodal Learning of Funny Moments in Videos in the Wild [12.530540250653633]
本稿では,ビデオ中の面白い瞬間を予測するために,視覚,音声,テキストデータに対して,クロスアテンションと自己アテンションに依存するモデルFunnyNet-Wを提案する。
TBBT, MHD, MUStARD, Friends, TEDトークUR-Funnyの5つのデータセットについて実験を行った。
論文 参考訳(メタデータ) (2024-01-08T19:39:36Z) - Executive Voiced Laughter and Social Approval: An Explorative Machine
Learning Study [56.03830131919201]
経営コミュニケーションにおける音声笑いとその社会的承認への影響について検討した。
本研究は,経営コミュニケーション,戦略的リーダーシップ,社会的評価のネクサスにおける研究に寄与する。
論文 参考訳(メタデータ) (2023-05-16T14:39:00Z) - Laughing Matters: Introducing Laughing-Face Generation using Diffusion
Models [35.688696422879175]
そこで本研究では,静止画と笑いを含む音声クリップを用いて,リアルな笑い系列を生成する新しいモデルを提案する。
我々は、さまざまな笑いデータセットに基づいてモデルをトレーニングし、笑いのために特別に設計された評価指標を導入する。
本モデルでは,笑声生成のために再訓練された場合でも,すべての指標に対して最先端のパフォーマンスが達成される。
論文 参考訳(メタデータ) (2023-05-15T17:59:57Z) - The Naughtyformer: A Transformer Understands Offensive Humor [63.05016513788047]
Redditから抽出された新しいジョークデータセットを導入し、Naughtyformerと呼ばれる微調整されたトランスフォーマーを用いてサブタイプ分類タスクを解決する。
本モデルでは, ジョークの攻撃性の検出が, 最先端の手法と比較して有意に優れていることを示す。
論文 参考訳(メタデータ) (2022-11-25T20:37:58Z) - This joke is [MASK]: Recognizing Humor and Offense with Prompting [9.745213455946324]
風は日々の人間との交流やコミュニケーションにおいて磁気的要素である。
ユーモア認識のためのNLPの新しい伝達学習パラダイムであるプロンプトの有効性について検討する。
論文 参考訳(メタデータ) (2022-10-25T13:02:45Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - DeHumor: Visual Analytics for Decomposing Humor [36.300283476950796]
公言におけるユーモラスな行動を分析する視覚システムであるDeHumorを開発した。
それぞれの具体例の構成要素を直感的に明らかにするために、DeHumorはユーモラスな動画をマルチモーダルな特徴に分解する。
DeHumorはユーモアのユーモアの例として、さまざまなビルディングブロックをハイライトすることができる。
論文 参考訳(メタデータ) (2021-07-18T04:01:07Z) - Federated Learning with Diversified Preference for Humor Recognition [40.89453484353102]
We propose the FedHumor approach to recognize humorous text contents in a Personal manner through federated learning (FL)。
様々なユーモア嗜好を持つ人々に対して、FedHumorのユーモア内容の正確な認識において、9つの最先端ユーモア認識アプローチと比較して、実験は大きな利点を示す。
論文 参考訳(メタデータ) (2020-12-03T03:24:24Z) - "The Boating Store Had Its Best Sail Ever": Pronunciation-attentive
Contextualized Pun Recognition [80.59427655743092]
そこで我々は,ヒトのユーモアを知覚するために,発音適応型文脈パウン認識(PCPR)を提案する。
PCPRは、周囲の文脈とその対応する音韻記号の関連を捉えることにより、文中の各単語の文脈化された表現を導出する。
その結果,提案手法はパント検出や位置情報タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-29T20:12:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。