論文の概要: One Joke to Rule them All? On the (Im)possibility of Generalizing Humor
- arxiv url: http://arxiv.org/abs/2508.19402v1
- Date: Tue, 26 Aug 2025 19:55:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.414807
- Title: One Joke to Rule them All? On the (Im)possibility of Generalizing Humor
- Title(参考訳): すべてを統治する1つのジョーク : 一般のうわさの可能性について
- Authors: Mor Turgeman, Chen Shani, Dafna Shahaf,
- Abstract要約: 大規模言語モデル(LLM)はユーモアのタイプをまたいで一般化できなければならない。
実験では、モデルが何らかの転送が可能なことを明らかにし、未知のデータセットで最大75%の精度に達することができる。
さらなる分析は、ダッド・ジュークスがトランスファーの最良の実現手段として驚くほど現れているユーモアのタイプ間の関係を示唆している。
- 参考スコア(独自算出の注目度): 11.819634993950544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humor is a broad and complex form of communication that remains challenging for machines. Despite its broadness, most existing research on computational humor traditionally focused on modeling a specific type of humor. In this work, we wish to understand whether competence on one or more specific humor tasks confers any ability to transfer to novel, unseen types; in other words, is this fragmentation inevitable? This question is especially timely as new humor types continuously emerge in online and social media contexts (e.g., memes, anti-humor, AI fails). If Large Language Models (LLMs) are to keep up with this evolving landscape, they must be able to generalize across humor types by capturing deeper, transferable mechanisms. To investigate this, we conduct a series of transfer learning experiments across four datasets, representing different humor tasks. We train LLMs under varied diversity settings (1-3 datasets in training, testing on a novel task). Experiments reveal that models are capable of some transfer, and can reach up to 75% accuracy on unseen datasets; training on diverse sources improves transferability (1.88-4.05%) with minimal-to-no drop in in-domain performance. Further analysis suggests relations between humor types, with Dad Jokes surprisingly emerging as the best enabler of transfer (but is difficult to transfer to). We release data and code.
- Abstract(参考訳): Humorは広範で複雑なコミュニケーション形態であり、マシンにとって依然として挑戦的だ。
その広さにもかかわらず、計算ユーモアに関する既存の研究は、伝統的に特定の種類のユーモアをモデル化することに焦点を当てていた。
この研究で我々は、一つ以上の特定のユーモアタスクの能力が、新しい、目に見えないタイプに移行する能力を与えるかどうかを理解したい。
オンラインやソーシャルメディア(例:ミーム、反未来、AIは失敗する)で新しいユーモアのタイプが絶えず出現する中で、この問題は特にタイムリーだ。
大規模言語モデル(LLM)がこの発展途上の状況に追随するならば、より深く、転送可能なメカニズムを捉えることで、ユーモアの型をまたいだ一般化を行なわなければならない。
そこで我々は,4つのデータセットにまたがる一連の移動学習実験を行い,異なるユーモアのタスクを表現した。
多様な多様性設定(トレーニングでは1-3データセット、新しいタスクではテスト)でLLMをトレーニングします。
実験により、モデルは何らかの転送が可能であり、目に見えないデータセットで最大75%の精度に達することが判明し、様々なソースでのトレーニングは、ドメイン内のパフォーマンスを最小限に抑えることで、転送可能性(1.88-4.05%)を向上させる。
さらなる分析はユーモアのタイプ間の関係を示唆しており、ダッド・ジュークスは驚くほど、転送の最良の実現法として現れている(しかし、転送は困難である)。
データとコードをリリースします。
関連論文リスト
- Comparing Apples to Oranges: A Dataset & Analysis of LLM Humour Understanding from Traditional Puns to Topical Jokes [14.762724547600447]
我々は,ユーモアを説明するためのLarge Language Models (LLMs) が,特定のユーモア形式に依存するかどうかを検討する。
我々は、現実世界の実体や出来事の知識を必要とする単純な句とより複雑な話題のユーモアのモデルを比較する。
テストされたどのモデルも、すべてのジョークの型についての十分な説明を確実に生成できないことがわかった。
論文 参考訳(メタデータ) (2025-07-17T17:51:20Z) - From Punchlines to Predictions: A Metric to Assess LLM Performance in Identifying Humor in Stand-Up Comedy [6.124881326867511]
大きな言語モデルが広く採用されていることを踏まえ、ユーモアとAIの交わりは笑い事ではない。
本研究では,スタンドアップコメディの書き起こしからユーモラスな引用を正確に識別するモデルの有効性を評価する。
ユーモラスなパンチラインを抽出する能力について,様々なプロンプトの中からLLMを評価するために考案された新しいユーモラス検出指標を提案する。
論文 参考訳(メタデータ) (2025-04-12T02:19:53Z) - Can Pre-trained Language Models Understand Chinese Humor? [74.96509580592004]
本論文は,事前学習言語モデル(PLM)のユーモア理解能力を体系的に研究する最初の論文である。
提案した評価フレームワークのすべてのデータ要件を完全に満たす中国の総合的ユーモアデータセットを構築した。
中国のユーモアデータセットに関する実証的研究は、ユーモア理解と生成におけるPLMの将来の最適化に非常に役立つ貴重な観察結果をもたらす。
論文 参考訳(メタデータ) (2024-07-04T18:13:38Z) - Getting Serious about Humor: Crafting Humor Datasets with Unfunny Large Language Models [27.936545041302377]
大規模言語モデル(LLM)は、テキストを編集することでユーモア検出のための合成データを生成することができる。
我々は、既存の人間のデータセット上でLLMをベンチマークし、現在のLLMは、ジョークを「不快に」する印象的な能力を示すことを示す。
我々は、GPT-4の合成データがバイリンガルアノテータによって高度に評価されているという、コード混成のイングリッシュ・ヒンディー語ユーモアデータセットにアプローチを拡張した。
論文 参考訳(メタデータ) (2024-02-23T02:58:12Z) - The Naughtyformer: A Transformer Understands Offensive Humor [63.05016513788047]
Redditから抽出された新しいジョークデータセットを導入し、Naughtyformerと呼ばれる微調整されたトランスフォーマーを用いてサブタイプ分類タスクを解決する。
本モデルでは, ジョークの攻撃性の検出が, 最先端の手法と比較して有意に優れていることを示す。
論文 参考訳(メタデータ) (2022-11-25T20:37:58Z) - ExPUNations: Augmenting Puns with Keywords and Explanations [88.58174386894913]
我々は、キーワードの詳細なクラウドソースアノテーションで既存の句のデータセットを拡張する。
これは、パント専用の広範囲できめ細かなアノテーションを備えた最初のユーモアデータセットである。
句分類支援のための説明生成とキーワード条件付き句生成という2つのタスクを提案する。
論文 参考訳(メタデータ) (2022-10-24T18:12:02Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。