論文の概要: Psychology-Driven Enhancement of Humour Translation
- arxiv url: http://arxiv.org/abs/2507.09259v1
- Date: Sat, 12 Jul 2025 11:44:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:22.861154
- Title: Psychology-Driven Enhancement of Humour Translation
- Title(参考訳): ヒューマー翻訳の心理学的促進
- Authors: Yuchen Su, Yonghua Zhu, Yang Chen, Diana Benavides-Prado, Michael Witbrock,
- Abstract要約: 本研究では,人間の思考過程の能力を模倣する心理学的なヒューマー分解機構(HDM)を提案する。
提案手法はユーモア翻訳の質を著しく向上させ, 平均利得7.75%, 流布2.81%, 生成したテキストのコヒーレンス6.13%とした。
- 参考スコア(独自算出の注目度): 15.348888125504658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humour translation plays a vital role as a bridge between different cultures, fostering understanding and communication. Although most existing Large Language Models (LLMs) are capable of general translation tasks, these models still struggle with humour translation, which is especially reflected through linguistic interference and lacking humour in translated text. In this paper, we propose a psychology-inspired Humour Decomposition Mechanism (HDM) that utilises Chain-of-Thought (CoT) to imitate the ability of the human thought process, stimulating LLMs to optimise the readability of translated humorous texts. Moreover, we integrate humour theory in HDM to further enhance the humorous elements in the translated text. Our automatic evaluation experiments on open-source humour datasets demonstrate that our method significantly improves the quality of humour translation, yielding average gains of 7.75\% in humour, 2.81\% in fluency, and 6.13\% in coherence of the generated text.
- Abstract(参考訳): 言語翻訳は異なる文化間の橋渡しとして重要な役割を担い、理解とコミュニケーションを促進する。
既存のLarge Language Models (LLMs) は一般的な翻訳作業が可能であるが、これらのモデルは、言語的干渉と翻訳テキストにおけるユーモアの欠如によって特に反映されるユーモア翻訳に苦慮している。
本稿では,人間の思考過程の能力を模倣するためにCoT(Chain-of-Thought)を利用した心理学的なHumour Decomposition Mechanism(HDM)を提案し,LLMを刺激し,翻訳されたユーモラステキストの読みやすさを最適化する。
さらに、HDMにユーモア理論を統合し、翻訳されたテキストのユーモア的要素をさらに強化する。
オープンソースユーモアデータセットの自動評価実験により,提案手法はユーモア翻訳の質を著しく向上し,ユーモアでは7.75\%,流布では2.81\%,生成したテキストのコヒーレンスでは6.13\%となることがわかった。
関連論文リスト
- From Punchlines to Predictions: A Metric to Assess LLM Performance in Identifying Humor in Stand-Up Comedy [6.124881326867511]
大きな言語モデルが広く採用されていることを踏まえ、ユーモアとAIの交わりは笑い事ではない。
本研究では,スタンドアップコメディの書き起こしからユーモラスな引用を正確に識別するモデルの有効性を評価する。
ユーモラスなパンチラインを抽出する能力について,様々なプロンプトの中からLLMを評価するために考案された新しいユーモラス検出指標を提案する。
論文 参考訳(メタデータ) (2025-04-12T02:19:53Z) - Deceptive Humor: A Synthetic Multilingual Benchmark Dataset for Bridging Fabricated Claims with Humorous Content [0.0]
提案するDeceptive Humor データセット (DHD) は, 偽造クレームから得られたユーモアを注入したコメントの集合である。
それぞれのエントリーには、Satire Level(微妙な風刺は1からオーバート風刺は3まで)とラベルが付けられ、5つのユーモアタイプに分類される。
データセットは英語、テルグ語、ヒンディー語、カンナダ語、タミル語、およびそれらのコードミキシング形式にまたがっており、多言語分析に有用なリソースとなっている。
論文 参考訳(メタデータ) (2025-03-20T10:58:02Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - Can Pre-trained Language Models Understand Chinese Humor? [74.96509580592004]
本論文は,事前学習言語モデル(PLM)のユーモア理解能力を体系的に研究する最初の論文である。
提案した評価フレームワークのすべてのデータ要件を完全に満たす中国の総合的ユーモアデータセットを構築した。
中国のユーモアデータセットに関する実証的研究は、ユーモア理解と生成におけるPLMの将来の最適化に非常に役立つ貴重な観察結果をもたらす。
論文 参考訳(メタデータ) (2024-07-04T18:13:38Z) - Getting Serious about Humor: Crafting Humor Datasets with Unfunny Large Language Models [27.936545041302377]
大規模言語モデル(LLM)は、テキストを編集することでユーモア検出のための合成データを生成することができる。
我々は、既存の人間のデータセット上でLLMをベンチマークし、現在のLLMは、ジョークを「不快に」する印象的な能力を示すことを示す。
我々は、GPT-4の合成データがバイリンガルアノテータによって高度に評価されているという、コード混成のイングリッシュ・ヒンディー語ユーモアデータセットにアプローチを拡張した。
論文 参考訳(メタデータ) (2024-02-23T02:58:12Z) - OxfordTVG-HIC: Can Machine Make Humorous Captions from Images? [27.899718595182172]
ユーモア生成と理解のための大規模データセットであるOxfordTVG-HIC(Humorous Image Captions)を提案する。
OxfordTVG-HICは幅広い感情的・意味的な多様性を特徴とし、アウト・オブ・コンテクストの例である。
我々は、生成されたテキストのユーモアを評価するために、OxfordTVG-HICをどのように活用できるかを示す。
論文 参考訳(メタデータ) (2023-07-21T14:58:44Z) - Exploring Human-Like Translation Strategy with Large Language Models [93.49333173279508]
大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
論文 参考訳(メタデータ) (2023-05-06T19:03:12Z) - ExPUNations: Augmenting Puns with Keywords and Explanations [88.58174386894913]
我々は、キーワードの詳細なクラウドソースアノテーションで既存の句のデータセットを拡張する。
これは、パント専用の広範囲できめ細かなアノテーションを備えた最初のユーモアデータセットである。
句分類支援のための説明生成とキーワード条件付き句生成という2つのタスクを提案する。
論文 参考訳(メタデータ) (2022-10-24T18:12:02Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - Federated Learning with Diversified Preference for Humor Recognition [40.89453484353102]
We propose the FedHumor approach to recognize humorous text contents in a Personal manner through federated learning (FL)。
様々なユーモア嗜好を持つ人々に対して、FedHumorのユーモア内容の正確な認識において、9つの最先端ユーモア認識アプローチと比較して、実験は大きな利点を示す。
論文 参考訳(メタデータ) (2020-12-03T03:24:24Z) - Predicting the Humorousness of Tweets Using Gaussian Process Preference
Learning [56.18809963342249]
本稿では,人間の嗜好判断と言語アノテーションの自動生成を利用して,短文のユーモラスさのランク付けと評価を学習する確率論的アプローチを提案する。
本研究は, HAHA@IberLEF 2019データにおける数値スコアの変換と, 提案手法に必要な判定アノテーションの相互変換から生じる問題点について報告する。
論文 参考訳(メタデータ) (2020-08-03T13:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。