論文の概要: Synthetic Reader Panels: Tournament-Based Ideation with LLM Personas for Autonomous Publishing
- arxiv url: http://arxiv.org/abs/2602.14433v1
- Date: Mon, 16 Feb 2026 03:44:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.062064
- Title: Synthetic Reader Panels: Tournament-Based Ideation with LLM Personas for Autonomous Publishing
- Title(参考訳): 自動出版のためのLPMペルソナによるトーナメントに基づく着想
- Authors: Fred Zimmerman,
- Abstract要約: 本稿では,人間のフォーカスグループを合成読解パネルに置き換える,自律的な書籍構想システムを提案する。
それぞれのペルソナは、人口統計学的属性(年齢、性別、収入、教育、読書レベル)、行動パターン(年ごとの書籍、ジャンルの好み、発見方法、価格の感度)、一貫性パラメータによって定義される。
書籍のコンセプトは単行本、複行本、ラウンドロビン、スイス・システム・トーナメントで競い合い、市場の魅力、独創性、実行可能性など重み付けされた基準から判断される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a system for autonomous book ideation that replaces human focus groups with synthetic reader panels -- diverse collections of LLM-instantiated reader personas that evaluate book concepts through structured tournament competitions. Each persona is defined by demographic attributes (age group, gender, income, education, reading level), behavioral patterns (books per year, genre preferences, discovery methods, price sensitivity), and consistency parameters. Panels are composed per imprint to reflect target demographics, with diversity constraints ensuring representation across age, reading level, and genre affinity. Book concepts compete in single-elimination, double-elimination, round-robin, or Swiss-system tournaments, judged against weighted criteria including market appeal, originality, and execution potential. To reject low-quality LLM evaluations, we implement five automated anti-slop checks (repetitive phrasing, generic framing, circular reasoning, score clustering, audience mismatch). We report results from deployment within a multi-imprint publishing operation managing 6 active imprints and 609 titles in distribution. Three case studies -- a 270-evaluator panel for a children's literacy novel, and two 5-person expert panels for a military memoir and a naval strategy monograph -- demonstrate that synthetic panels produce actionable demographic segmentation, identify structural content issues invisible to homogeneous reviewers, and enable tournament filtering that eliminates low-quality concepts while enriching high-quality survivors from 15% to 62% of the evaluated pool.
- Abstract(参考訳): 本稿では,人間のフォーカスグループを総合的な読者パネルに置き換える,自律的な書籍構想システムについて述べる。
それぞれのペルソナは、人口統計学的属性(年齢、性別、収入、教育、読書レベル)、行動パターン(年ごとの書籍、ジャンルの好み、発見方法、価格の感度)、一貫性パラメータによって定義される。
パネルはインプリントごとに構成され、年齢、読書レベル、ジャンルの親和性などの多様性の制約を反映している。
書籍のコンセプトは単行本、複行本、ラウンドロビン、スイス・システム・トーナメントで競い合い、市場の魅力、独創性、実行可能性など重み付けされた基準から判断される。
低品質のLCM評価を拒否するために,5つの自動アンチスロープチェック(繰り返しフレーズ,ジェネリックフレーミング,円形推論,スコアクラスタリング,オーディエンスミスマッチ)を実装した。
6個の活版と609個のタイトルを流通管理する多版出版作業における展開結果について報告する。
3つのケーススタディ — 児童文学小説の270評価パネルと、軍用回顧録と海軍戦略モノグラフのための2つの5人の専門家パネル — は、合成パネルが動作可能な人口動態のセグメンテーションを生成し、均質なレビュアーに見えない構造的内容の問題を識別し、低品質の概念を排除し、高品質の生存者を15%から62%まで濃縮するトーナメントフィルタリングを可能にすることを実証している。
関連論文リスト
- Beyond Survival: Evaluating LLMs in Social Deduction Games with Human-Aligned Strategies [54.08697738311866]
Werewolfのようなソーシャル推論ゲームは、言語、推論、戦略を組み合わせている。
我々は,100時間以上のビデオ,32.4M発声トークン,15の規則変種を含む高品質で人間認証されたWerewolfデータセットをキュレートした。
本稿では,勝利派戦略を2段階の真理として活用する新たな戦略調整評価法を提案する。
論文 参考訳(メタデータ) (2025-10-13T13:33:30Z) - Simulating Identity, Propagating Bias: Abstraction and Stereotypes in LLM-Generated Text [8.988787218035414]
ソシオデミノグラフィーのカテゴリーとステレオタイプ的・非ステレオタイプ的属性をリンクする短いテキストを生成する際に,ペルソナ・プロンプトが言語的抽象化のレベルを異にするかどうかを検討する。
本研究は, ソシオデミノグラフィーグループを代表するペルソナの生態に対する批判と, ステレオタイプの普及リスクへの懸念を提起するものである。
論文 参考訳(メタデータ) (2025-09-10T10:49:21Z) - Let's Use ChatGPT To Write Our Paper! Benchmarking LLMs To Write the Introduction of a Research Paper [64.50822834679101]
SciIGは、タイトル、抽象、および関連する作品からコヒーレントな紹介を生成するLLMの能力を評価するタスクである。
オープンソース (DeepSeek-v3, Gemma-3-12B, LLaMA 4-Maverick, MistralAI Small 3.1) およびクローズドソース GPT-4o システムを含む5つの最先端モデルを評価する。
結果は、特に意味的類似性と忠実性において、ほとんどのメトリクスにおいて、LLaMA-4 Maverickの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-08-19T21:11:11Z) - Investigating Intersectional Bias in Large Language Models using Confidence Disparities in Coreference Resolution [5.061421107401101]
大規模言語モデル(LLM)は目覚ましいパフォーマンスを達成し、採用や受け入れといったリソース制約のあるコンテキストで意思決定支援ツールとして広く採用されている。
しかし、AIシステムは社会的バイアスを反映し、さらに悪化させることができるという科学的コンセンサスがあり、批判的な社会的文脈で使用される場合、アイデンティティに基づく害についての懸念が高まる。
本研究では,複数の識別軸が交差する際,異なる不利パターンを生じることを認識して,一軸の公平性評価を拡張し,交差バイアスを検証した。
論文 参考訳(メタデータ) (2025-08-09T22:24:40Z) - Post-hoc Study of Climate Microtargeting on Social Media Ads with LLMs: Thematic Insights and Fairness Evaluation [24.599293872173362]
本研究は,温暖化対策におけるマイクロターゲットの実践に関するポストホック分析である。
大規模言語モデル(LLM)が意図する人口目標を正確に予測する能力を評価する。
モデル予測におけるバイアスを明らかにするために、包括的公正分析を行う。
論文 参考訳(メタデータ) (2024-10-07T18:07:56Z) - A Group Fairness Lens for Large Language Models [34.0579082699443]
大規模な言語モデルは、ソーシャルメディアの文脈に展開する際の偏見と不公平さを永久に防ぐことができる。
多様な社会集団を特徴付ける新しい階層型スキーマを用いて,グループフェアネスレンズからLLMバイアスを評価する。
我々は,グループフェアネスの観点からLLMのバイアスを軽減するために,GF-Thinkという新しいチェーン・オブ・シンク法を考案した。
論文 参考訳(メタデータ) (2023-12-24T13:25:15Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Overview of the TREC 2020 Fair Ranking Track [64.16623297717642]
本稿は、NIST TREC 2020 Fair Ranking trackの概要を示す。
フェア・ランキング・トラックの中心的な目標は、様々な作家グループに公正な露出を提供することである。
論文 参考訳(メタデータ) (2021-08-11T10:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。