論文の概要: DeHumor: Visual Analytics for Decomposing Humor
- arxiv url: http://arxiv.org/abs/2107.08356v1
- Date: Sun, 18 Jul 2021 04:01:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 15:11:08.343329
- Title: DeHumor: Visual Analytics for Decomposing Humor
- Title(参考訳): DeHumor: Humorを分解するビジュアルアナリティクス
- Authors: Xingbo Wang, Yao Ming, Tongshuang Wu, Haipeng Zeng, Yong Wang, Huamin
Qu
- Abstract要約: 公言におけるユーモラスな行動を分析する視覚システムであるDeHumorを開発した。
それぞれの具体例の構成要素を直感的に明らかにするために、DeHumorはユーモラスな動画をマルチモーダルな特徴に分解する。
DeHumorはユーモアのユーモアの例として、さまざまなビルディングブロックをハイライトすることができる。
- 参考スコア(独自算出の注目度): 36.300283476950796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite being a critical communication skill, grasping humor is challenging
-- a successful use of humor requires a mixture of both engaging content
build-up and an appropriate vocal delivery (e.g., pause). Prior studies on
computational humor emphasize the textual and audio features immediately next
to the punchline, yet overlooking longer-term context setup. Moreover, the
theories are usually too abstract for understanding each concrete humor
snippet. To fill in the gap, we develop DeHumor, a visual analytical system for
analyzing humorous behaviors in public speaking. To intuitively reveal the
building blocks of each concrete example, DeHumor decomposes each humorous
video into multimodal features and provides inline annotations of them on the
video script. In particular, to better capture the build-ups, we introduce
content repetition as a complement to features introduced in theories of
computational humor and visualize them in a context linking graph. To help
users locate the punchlines that have the desired features to learn, we
summarize the content (with keywords) and humor feature statistics on an
augmented time matrix. With case studies on stand-up comedy shows and TED
talks, we show that DeHumor is able to highlight various building blocks of
humor examples. In addition, expert interviews with communication coaches and
humor researchers demonstrate the effectiveness of DeHumor for multimodal humor
analysis of speech content and vocal delivery.
- Abstract(参考訳): 重要なコミュニケーションスキルであるにもかかわらず、ユーモアの把握は難しい -- ユーモアをうまく活用するには、エンゲージメントなコンテンツ構築と適切な発声(例えば、一時停止)の混合が必要である。
計算ユーモアに関する以前の研究は、パンチラインのすぐ隣にあるテキストとオーディオの特徴を強調したが、長期的なコンテキスト設定は見落としている。
さらに、理論は通常、個々の具体的なユーモアスニペットを理解するには抽象的すぎる。
このギャップを埋めるために,公言におけるユーモラスな行動を分析する視覚分析システムであるDeHumorを開発した。
具体例のビルディングブロックを直感的に明らかにするために、dehumorは各ユーモラスなビデオをマルチモーダルな特徴に分解し、そのインラインアノテーションをビデオスクリプトに提供する。
具体的には,コンテントの反復を,計算ユーモア理論に導入された機能の補足として導入し,それらをコンテキストリンクグラフで可視化する。
ユーザが学習すべき機能を持つパンチラインを見つけるのを助けるために、コンテンツ(キーワード付き)とユーモアの特徴統計を拡張時間行列に要約する。
スタンドアップコメディ番組やTEDトークのケーススタディでは、DeHumorがユーモアのユーモアのユーモアの様々な構成要素を強調できることを示す。
さらに、コミュニケーションコーチやユーモア研究者との専門家インタビューは、音声コンテンツと発声のマルチモーダルなユーモア分析におけるDeHumorの有効性を示した。
関連論文リスト
- THInC: A Theory-Driven Framework for Computational Humor Detection [2.0960189135529212]
単一の包括的ユーモア理論についてはまだ合意がない。
ユーモアを検出するためのほとんどの計算手法は、既存のユーモア理論に基づいていない。
本稿では,ユーモア分類のための解釈可能な枠組みを作成することにより,この長期的ギャップを埋めることに寄与する。
論文 参考訳(メタデータ) (2024-09-02T13:09:26Z) - Can Pre-trained Language Models Understand Chinese Humor? [74.96509580592004]
本論文は,事前学習言語モデル(PLM)のユーモア理解能力を体系的に研究する最初の論文である。
提案した評価フレームワークのすべてのデータ要件を完全に満たす中国の総合的ユーモアデータセットを構築した。
中国のユーモアデータセットに関する実証的研究は、ユーモア理解と生成におけるPLMの将来の最適化に非常に役立つ貴重な観察結果をもたらす。
論文 参考訳(メタデータ) (2024-07-04T18:13:38Z) - Can Language Models Laugh at YouTube Short-form Videos? [40.47384055149102]
ユーザ生成したYouTubeから10Kのマルチモーダルな面白いビデオのデータセット、ExFunTubeをキュレートします。
GPT-3.5を用いたビデオフィルタリングパイプラインを用いて,ユーモアに寄与する言語的要素と視覚的要素の両方を検証する。
フィルタリング後、各ビデオにタイムスタンプとテキスト説明をアノテートします。
論文 参考訳(メタデータ) (2023-10-22T03:01:38Z) - OxfordTVG-HIC: Can Machine Make Humorous Captions from Images? [27.899718595182172]
ユーモア生成と理解のための大規模データセットであるOxfordTVG-HIC(Humorous Image Captions)を提案する。
OxfordTVG-HICは幅広い感情的・意味的な多様性を特徴とし、アウト・オブ・コンテクストの例である。
我々は、生成されたテキストのユーモアを評価するために、OxfordTVG-HICをどのように活用できるかを示す。
論文 参考訳(メタデータ) (2023-07-21T14:58:44Z) - ExPUNations: Augmenting Puns with Keywords and Explanations [88.58174386894913]
我々は、キーワードの詳細なクラウドソースアノテーションで既存の句のデータセットを拡張する。
これは、パント専用の広範囲できめ細かなアノテーションを備えた最初のユーモアデータセットである。
句分類支援のための説明生成とキーワード条件付き句生成という2つのタスクを提案する。
論文 参考訳(メタデータ) (2022-10-24T18:12:02Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - M2H2: A Multimodal Multiparty Hindi Dataset For Humor Recognition in
Conversations [72.81164101048181]
テレビシリーズ『Shrimaan Shrimati Phir Se』の13話から6,191発の発声を含む会話におけるマルチモーダル・マルチパーティ・ヒンディー・ヒューム(M2H2)認識のためのデータセットを提案する。
それぞれの発話はユーモア/非感情ラベルでアノテートされ、音響、視覚、テキストのモダリティを含む。
M2H2データセットにおける実験結果から,マルチモーダル情報はユーモア認識のための単調な情報を補完することが示された。
論文 参考訳(メタデータ) (2021-08-03T02:54:09Z) - Federated Learning with Diversified Preference for Humor Recognition [40.89453484353102]
We propose the FedHumor approach to recognize humorous text contents in a Personal manner through federated learning (FL)。
様々なユーモア嗜好を持つ人々に対して、FedHumorのユーモア内容の正確な認識において、9つの最先端ユーモア認識アプローチと比較して、実験は大きな利点を示す。
論文 参考訳(メタデータ) (2020-12-03T03:24:24Z) - "The Boating Store Had Its Best Sail Ever": Pronunciation-attentive
Contextualized Pun Recognition [80.59427655743092]
そこで我々は,ヒトのユーモアを知覚するために,発音適応型文脈パウン認識(PCPR)を提案する。
PCPRは、周囲の文脈とその対応する音韻記号の関連を捉えることにより、文中の各単語の文脈化された表現を導出する。
その結果,提案手法はパント検出や位置情報タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-29T20:12:20Z) - Let's be Humorous: Knowledge Enhanced Humor Generation [26.886255899651893]
関連する知識をセットして、パンチラインを生成する方法について検討する。
我々の知る限り、これは知識強化モデルでパンチラインを生成する最初の試みである。
実験結果から,本手法は知識を生かして,流動的で面白いパンチラインを生成できることが示唆された。
論文 参考訳(メタデータ) (2020-04-28T06:06:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。