論文の概要: Commonality and Individuality! Integrating Humor Commonality with Speaker Individuality for Humor Recognition
- arxiv url: http://arxiv.org/abs/2502.04960v1
- Date: Fri, 07 Feb 2025 14:23:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:56:53.011317
- Title: Commonality and Individuality! Integrating Humor Commonality with Speaker Individuality for Humor Recognition
- Title(参考訳): 共通性と個人性! 言葉の共通性と話者の個人性の統合
- Authors: Haohao Zhu, Junyu Lu, Zeyuan Zeng, Zewen Bai, Xiaokun Zhang, Liang Yang, Hongfei Lin,
- Abstract要約: The Commonality and individuality Incorporated Network for Humor Recognition (CIHR)はユーモア認識を強化するために設計された新しいモデルである。
CIHRにはHumor Commonality Analysisモジュールがあり、ユーザテキスト内の多面的ユーモアの共通性のさまざまな視点を探索する。
話者個人性抽出モジュールは、話者のプロファイルの静的側面と動的側面の両方をキャプチャして、その特有の個人性を正確にモデル化する。
- 参考スコア(独自算出の注目度): 16.17139518077975
- License:
- Abstract: Humor recognition aims to identify whether a specific speaker's text is humorous. Current methods for humor recognition mainly suffer from two limitations: (1) they solely focus on one aspect of humor commonalities, ignoring the multifaceted nature of humor; and (2) they typically overlook the critical role of speaker individuality, which is essential for a comprehensive understanding of humor expressions. To bridge these gaps, we introduce the Commonality and Individuality Incorporated Network for Humor Recognition (CIHR), a novel model designed to enhance humor recognition by integrating multifaceted humor commonalities with the distinctive individuality of speakers. The CIHR features a Humor Commonality Analysis module that explores various perspectives of multifaceted humor commonality within user texts, and a Speaker Individuality Extraction module that captures both static and dynamic aspects of a speaker's profile to accurately model their distinctive individuality. Additionally, Static and Dynamic Fusion modules are introduced to effectively incorporate the humor commonality with speaker's individuality in the humor recognition process. Extensive experiments demonstrate the effectiveness of CIHR, underscoring the importance of concurrently addressing both multifaceted humor commonality and distinctive speaker individuality in humor recognition.
- Abstract(参考訳): 感性認識は、特定の話者の文章がユーモラスかどうかを識別することを目的としている。
ユーモア認識の現在の手法は,(1)ユーモアの共通性の1つの側面にのみ焦点をあてること,(2)ユーモアの多面的性質を無視しること,(2)ユーモア表現の包括的理解に不可欠な話者個人性の重要性を軽視すること,の2つの限界を主に抱えている。
これらのギャップを埋めるために,多面的ユーモアの共通点と話者の特有な個性を統合することで,ユーモア認識を強化する新しいモデルCIHR(Commonality and individuality Incorporated Network for Humor Recognition)を導入する。
CIHRは、ユーザテキスト内の多面的ユーモアの共通性のさまざまな視点を探索するHummor Commonality Analysisモジュールと、話者のプロファイルの静的な側面と動的側面の両方をキャプチャして、個々の個人性を正確にモデル化する話者個人性抽出モジュールを備えている。
さらに, 話者の個人性にユーモアの共通性を効果的に組み込むために, 静的および動的融合モジュールが導入された。
広汎な実験はCIHRの有効性を示し、ユーモア認識における多面的ユーモアの共通性と特有の話者個人性の両方に同時に対処することの重要性を強調している。
関連論文リスト
- Nonverbal Interaction Detection [83.40522919429337]
この研究は、社会的文脈における人間の非言語的相互作用を理解するという新たな課題に対処する。
我々はNVIと呼ばれる新しい大規模データセットを寄贈し、人間とそれに対応する社会グループのための境界ボックスを含むように細心の注意を払ってアノテートする。
第2に,非言語的インタラクション検出のための新たなタスクNVI-DETを構築し,画像から三つ子を識別する。
第3に,非言語相互作用検出ハイパーグラフ (NVI-DEHR) を提案する。
論文 参考訳(メタデータ) (2024-07-11T02:14:06Z) - Humor Mechanics: Advancing Humor Generation with Multistep Reasoning [11.525355831490828]
マルチステップ推論を用いたユーモア生成のための動作プロトタイプを開発した。
提案手法を,人間によるジョーク,ゼロショットGPT-4生成ユーモア,その他ベースラインと比較した。
以上の結果から,多段階推論手法は生成したユーモアの質を継続的に改善することが示された。
論文 参考訳(メタデータ) (2024-05-12T13:00:14Z) - Emotional Listener Portrait: Realistic Listener Motion Simulation in
Conversation [50.35367785674921]
リスナーヘッドジェネレーションは、話者から提供される情報を参照して、リスナーの非言語行動を生成することに集中する。
このような反応を生成する上で重要な課題は、会話中のきめ細かい表情の非決定論的性質である。
本稿では,複数の個別な動きコーパスの合成として,各顔の動きを微粒化処理する情緒的リスナー・ポートレート(ELP)を提案する。
ELPモデルは,学習分布からのサンプリングにより,与えられた話者に対する自然な,多様な応答を自動的に生成するだけでなく,所定の姿勢で制御可能な応答を生成することができる。
論文 参考訳(メタデータ) (2023-09-29T18:18:32Z) - Mining Effective Features Using Quantum Entropy for Humor Recognition [19.20228079459944]
過去数年間に、様々な方法で、音の認識が広範に研究されてきた。
本稿では,不整合理論にインスパイアされたジョークを2つの構成要素(セットアップとパンチライン)に分けることができる。
構成のセマンティックな不確かさとパンチラインを表すために密度行列を使用し、量子エントロピーの助けを借りてQE-不確実性とQE-不連続性を設計する。
論文 参考訳(メタデータ) (2023-02-07T19:09:09Z) - This joke is [MASK]: Recognizing Humor and Offense with Prompting [9.745213455946324]
風は日々の人間との交流やコミュニケーションにおいて磁気的要素である。
ユーモア認識のためのNLPの新しい伝達学習パラダイムであるプロンプトの有効性について検討する。
論文 参考訳(メタデータ) (2022-10-25T13:02:45Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - M2H2: A Multimodal Multiparty Hindi Dataset For Humor Recognition in
Conversations [72.81164101048181]
テレビシリーズ『Shrimaan Shrimati Phir Se』の13話から6,191発の発声を含む会話におけるマルチモーダル・マルチパーティ・ヒンディー・ヒューム(M2H2)認識のためのデータセットを提案する。
それぞれの発話はユーモア/非感情ラベルでアノテートされ、音響、視覚、テキストのモダリティを含む。
M2H2データセットにおける実験結果から,マルチモーダル情報はユーモア認識のための単調な情報を補完することが示された。
論文 参考訳(メタデータ) (2021-08-03T02:54:09Z) - DeHumor: Visual Analytics for Decomposing Humor [36.300283476950796]
公言におけるユーモラスな行動を分析する視覚システムであるDeHumorを開発した。
それぞれの具体例の構成要素を直感的に明らかにするために、DeHumorはユーモラスな動画をマルチモーダルな特徴に分解する。
DeHumorはユーモアのユーモアの例として、さまざまなビルディングブロックをハイライトすることができる。
論文 参考訳(メタデータ) (2021-07-18T04:01:07Z) - Federated Learning with Diversified Preference for Humor Recognition [40.89453484353102]
We propose the FedHumor approach to recognize humorous text contents in a Personal manner through federated learning (FL)。
様々なユーモア嗜好を持つ人々に対して、FedHumorのユーモア内容の正確な認識において、9つの最先端ユーモア認識アプローチと比較して、実験は大きな利点を示す。
論文 参考訳(メタデータ) (2020-12-03T03:24:24Z) - "The Boating Store Had Its Best Sail Ever": Pronunciation-attentive
Contextualized Pun Recognition [80.59427655743092]
そこで我々は,ヒトのユーモアを知覚するために,発音適応型文脈パウン認識(PCPR)を提案する。
PCPRは、周囲の文脈とその対応する音韻記号の関連を捉えることにより、文中の各単語の文脈化された表現を導出する。
その結果,提案手法はパント検出や位置情報タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-29T20:12:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。