論文の概要: Who Laughs with Whom? Disentangling Influential Factors in Humor Preferences across User Clusters and LLMs
- arxiv url: http://arxiv.org/abs/2601.03103v1
- Date: Tue, 06 Jan 2026 15:33:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.993879
- Title: Who Laughs with Whom? Disentangling Influential Factors in Humor Preferences across User Clusters and LLMs
- Title(参考訳): ユーザクラスタとLLMをまたがるユーモア選好のインフルエンシアティブな要因を解消するなんて、誰の悩み?
- Authors: Soichiro Murakami, Hidetaka Kamigaito, Hiroya Takamura, Manabu Okumura,
- Abstract要約: 大きな言語モデル(LLMs)を用いたユーモアの評価を複雑にし、個人や文化に幅広い相違点がある。
本研究では,ユーザの投票ログをクラスタリングし,Bradley-Terry-Luceモデルを用いた解釈可能な選好因子よりもクラスタ固有の重みを推定することにより,日本の創造的反応ゲームであるOogiriにおけるユーモア選好の不均一性をモデル化する。
- 参考スコア(独自算出の注目度): 53.060893644603844
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Humor preferences vary widely across individuals and cultures, complicating the evaluation of humor using large language models (LLMs). In this study, we model heterogeneity in humor preferences in Oogiri, a Japanese creative response game, by clustering users with voting logs and estimating cluster-specific weights over interpretable preference factors using Bradley-Terry-Luce models. We elicit preference judgments from LLMs by prompting them to select the funnier response and found that user clusters exhibit distinct preference patterns and that the LLM results can resemble those of particular clusters. Finally, we demonstrate that, by persona prompting, LLM preferences can be directed toward a specific cluster. The scripts for data collection and analysis will be released to support reproducibility.
- Abstract(参考訳): 大きな言語モデル (LLMs) を用いたユーモアの評価を複雑にし、個人や文化によって、覚醒の嗜好は様々である。
本研究では,ユーザの投票ログをクラスタリングし,Bradley-Terry-Luceモデルを用いた解釈可能な選好因子よりもクラスタ固有の重みを推定することにより,日本の創造的反応ゲームであるOogiriにおけるユーモア選好の不均一性をモデル化する。
LLM から選好判断を導出し,ユーザクラスタが異なる選好パターンを示し,その結果が特定のクラスタに類似していることを見出した。
最後に、ペルソナのプロンプトにより、LLMの選好が特定のクラスタに向けられることを示す。
データ収集と分析のスクリプトは再現性をサポートするためにリリースされる。
関連論文リスト
- ESMC: MLLM-Based Embedding Selection for Explainable Multiple Clustering [79.69917150582633]
MLLM(Multi-modal large language model)は、ユーザ主導のクラスタリングを実現するために利用することができる。
本手法はまず,MLLMのテキストトークンの隠蔽状態が対応する特徴と強く関連していることを明らかにする。
また、擬似ラベル学習を付加した軽量クラスタリングヘッドを採用し、クラスタリング精度を大幅に向上させた。
論文 参考訳(メタデータ) (2025-11-30T04:36:51Z) - HyPerAlign: Interpretable Personalized LLM Alignment via Hypothesis Generation [24.67727411391369]
HyPerAlignは、大規模言語モデルに対する解釈可能かつサンプル効率の仮説駆動パーソナライズアプローチである。
我々は2つの異なるパーソナライズタスク、すなわち著者帰属と熟考的アライメントについて実験を行った。
その結果、仮説駆動型パーソナライゼーションの方が好みに基づく微調整法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-29T18:01:46Z) - Agent-Centric Personalized Multiple Clustering with Multi-Modal LLMs [40.38930402847949]
エージェント中心のパーソナライズされたクラスタリングフレームワークを提案する。
エージェントはリレーショナルグラフを横断して、ユーザの関心事に基づいてクラスタを検索する。
その結果,提案手法はカードオーダーとカードサイツのベンチマークで0.9667と0.9481のNMIスコアを得ることができた。
論文 参考訳(メタデータ) (2025-03-28T08:45:15Z) - ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - PersonalLLM: Tailoring LLMs to Individual Preferences [11.717169516971856]
我々は、特定のユーザに対して最大限のメリットを提供するためにLLMを適用することに焦点を当てた、PersonalLLMという公開ベンチマークを提示する。
我々は、ユーザーが不均一な潜伏傾向を示すことを期待する高品質な回答と組み合わせたオープンエンドプロンプトをキュレートする。
私たちのデータセットと生成された個人性は、パーソナライズアルゴリズムを開発するための革新的なテストベッドを提供します。
論文 参考訳(メタデータ) (2024-09-30T13:55:42Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - Large Language Models Enable Few-Shot Clustering [88.06276828752553]
大規模言語モデルは、クエリ効率が良く、数発のセミ教師付きテキストクラスタリングを可能にするために、専門家のガイダンスを増幅できることを示す。
最初の2つのステージにLSMを組み込むことで、クラスタの品質が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-07-02T09:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。