論文の概要: Multi-Agent Comedy Club: Investigating Community Discussion Effects on LLM Humor Generation
- arxiv url: http://arxiv.org/abs/2602.14770v2
- Date: Tue, 17 Feb 2026 03:48:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 13:57:33.638605
- Title: Multi-Agent Comedy Club: Investigating Community Discussion Effects on LLM Humor Generation
- Title(参考訳): マルチエージェント・コメディ・クラブ:LLMヒューム生成におけるコミュニティ・ディスカッションの効果を探る
- Authors: Shiwei Hong, Lingyao Li, Ethan Z. Rong, Chenxinran Shen, Zhicong Lu,
- Abstract要約: 放送コミュニティの議論が,制御されたマルチエージェントサンドボックスにおけるスタンドアップコメディ執筆を改善するかどうかを検証した。
議論は75.6%のインスタンスを獲得し、クラフト/クラリティ(0.440)と社会反応(0.422)を改善し、時には攻撃的なユーモアを増す。
- 参考スコア(独自算出の注目度): 29.53356818218299
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Prior work has explored multi-turn interaction and feedback for LLM writing, but evaluations still largely center on prompts and localized feedback, leaving persistent public reception in online communities underexamined. We test whether broadcast community discussion improves stand-up comedy writing in a controlled multi-agent sandbox: in the discussion condition, critic and audience threads are recorded, filtered, stored as social memory, and later retrieved to condition subsequent generations, whereas the baseline omits discussion. Across 50 rounds (250 paired monologues) judged by five expert annotators using A/B preference and a 15-item rubric, discussion wins 75.6% of instances and improves Craft/Clarity (Δ = 0.440) and Social Response (Δ = 0.422), with occasional increases in aggressive humor.
- Abstract(参考訳): これまでの研究では、LLM作成のためのマルチターンインタラクションとフィードバックについて検討されてきたが、評価は依然としてプロンプトと局所的なフィードバックを中心に行われており、オンラインコミュニティにおける絶え間ないパブリックレセプションが過小評価されている。
放送コミュニティの議論が制御されたマルチエージェントサンドボックスにおけるスタンドアップコメディの執筆を改善するかどうかを検証する。議論条件では、批評家とオーディエンススレッドが記録され、フィルタリングされ、ソーシャルメモリとして記憶され、後続の状況に復元されるのに対して、ベースラインは議論を省略する。
50ラウンド(250対のモノローグ)にわたって、5人の専門家アノテーターがA/B選好と15項目のルーブリックを用いて判断し、75.6%のインスタンスを勝ち取り、クラフト/クラリティー(Δ = 0.440)と社会反応(Δ = 0.422)を改善し、時には積極的ユーモアが増大する。
関連論文リスト
- Counterfactual LLM-based Framework for Measuring Rhetorical Style [15.917819866091191]
本稿では,機械学習論文の実体的内容から修辞的スタイルを遠ざけるための,反実的LLMベースのフレームワークを提案する。
2017年から2025年にかけてサンプリングされた8,485 ICLRへのこの手法の適用により、25万件以上の偽造書を生成する。
視線フレーミングは、ピアレビュー評価を制御した後でも、引用やメディアの注意を含む下流の注意を著しく予測する。
論文 参考訳(メタデータ) (2025-12-22T22:22:46Z) - The Collective Turing Test: Large Language Models Can Generate Realistic Multi-User Discussions [0.4605116997238364]
大規模言語モデル(LLM)は、オンラインコミュニティやソーシャルメディアをシミュレートするための新しい道を提供する。
LLMがソーシャルメディア上でのヒューマングループ会話を効果的に模倣できるかどうかを評価した。
論文 参考訳(メタデータ) (2025-10-29T17:01:20Z) - DEBATE: A Large-Scale Benchmark for Role-Playing LLM Agents in Multi-Agent, Long-Form Debates [10.609797175227644]
マルチエージェントロールプレイングLLM間の相互作用の信頼性を評価するための,最初の大規模実証的ベンチマークであるDEBATEを紹介する。
我々は,シミュレーション群と真正群との重要な相違点を系統的に評価し,同定した。
論文 参考訳(メタデータ) (2025-10-29T02:21:10Z) - An Empirical Study of Group Conformity in Multi-Agent Systems [0.26999000177990923]
本研究では,Large Language Models (LLMs) が,5つの論点に関する議論を通じて世論を形成する方法について考察する。
2500以上の議論をシミュレートすることで、当初中立なエージェントが中心的な処分を課し、時間とともに特定のスタンスを採用するかを分析します。
論文 参考訳(メタデータ) (2025-06-02T05:22:29Z) - GuideLLM: Exploring LLM-Guided Conversation with Applications in Autobiography Interviewing [73.8469700907927]
大規模言語モデル(LLM)は、指示の追従や質問応答といった人間の指導による会話に成功している。
本研究では, LLM誘導会話を, ゴールナビゲーション, (ii) コンテキストマネジメント, (iii) 共感エンゲージメントの3つの基本要素に分類した。
GPT-4o や Llama-3-70b-Instruct のような6つの最先端 LLM と比較し, 面接品質, 自伝生成品質の観点から検討した。
論文 参考訳(メタデータ) (2025-02-10T14:11:32Z) - X-TURING: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すかどうかを調べる。
従来の設定では、各参加者は一度に1つのメッセージに制限される。
本稿では,textitburstダイアログパターンを用いて,元のテストを強化するtextbftextscX-Turingを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Rethinking the Bounds of LLM Reasoning: Are Multi-Agent Discussions the
Key? [84.36332588191623]
本稿では,議論機構の集合を充実させる新しいグループディスカッションフレームワークを提案する。
マルチエージェントの議論は,プロンプトに実演がない場合にのみ,単一のエージェントよりも優れていることが観察された。
論文 参考訳(メタデータ) (2024-02-28T12:04:05Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。