論文の概要: Synthetic Reader Panels: Tournament-Based Ideation with LLM Personas for Autonomous Publishing
- arxiv url: http://arxiv.org/abs/2602.14433v1
- Date: Mon, 16 Feb 2026 03:44:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.062064
- Title: Synthetic Reader Panels: Tournament-Based Ideation with LLM Personas for Autonomous Publishing
- Title(参考訳): 自動出版のためのLPMペルソナによるトーナメントに基づく着想
- Authors: Fred Zimmerman,
- Abstract要約: 本稿では,人間のフォーカスグループを合成読解パネルに置き換える,自律的な書籍構想システムを提案する。
それぞれのペルソナは、人口統計学的属性(年齢、性別、収入、教育、読書レベル)、行動パターン(年ごとの書籍、ジャンルの好み、発見方法、価格の感度)、一貫性パラメータによって定義される。
書籍のコンセプトは単行本、複行本、ラウンドロビン、スイス・システム・トーナメントで競い合い、市場の魅力、独創性、実行可能性など重み付けされた基準から判断される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a system for autonomous book ideation that replaces human focus groups with synthetic reader panels -- diverse collections of LLM-instantiated reader personas that evaluate book concepts through structured tournament competitions. Each persona is defined by demographic attributes (age group, gender, income, education, reading level), behavioral patterns (books per year, genre preferences, discovery methods, price sensitivity), and consistency parameters. Panels are composed per imprint to reflect target demographics, with diversity constraints ensuring representation across age, reading level, and genre affinity. Book concepts compete in single-elimination, double-elimination, round-robin, or Swiss-system tournaments, judged against weighted criteria including market appeal, originality, and execution potential. To reject low-quality LLM evaluations, we implement five automated anti-slop checks (repetitive phrasing, generic framing, circular reasoning, score clustering, audience mismatch). We report results from deployment within a multi-imprint publishing operation managing 6 active imprints and 609 titles in distribution. Three case studies -- a 270-evaluator panel for a children's literacy novel, and two 5-person expert panels for a military memoir and a naval strategy monograph -- demonstrate that synthetic panels produce actionable demographic segmentation, identify structural content issues invisible to homogeneous reviewers, and enable tournament filtering that eliminates low-quality concepts while enriching high-quality survivors from 15% to 62% of the evaluated pool.
- Abstract(参考訳): 本稿では,人間のフォーカスグループを総合的な読者パネルに置き換える,自律的な書籍構想システムについて述べる。
それぞれのペルソナは、人口統計学的属性(年齢、性別、収入、教育、読書レベル)、行動パターン(年ごとの書籍、ジャンルの好み、発見方法、価格の感度)、一貫性パラメータによって定義される。
パネルはインプリントごとに構成され、年齢、読書レベル、ジャンルの親和性などの多様性の制約を反映している。
書籍のコンセプトは単行本、複行本、ラウンドロビン、スイス・システム・トーナメントで競い合い、市場の魅力、独創性、実行可能性など重み付けされた基準から判断される。
低品質のLCM評価を拒否するために,5つの自動アンチスロープチェック(繰り返しフレーズ,ジェネリックフレーミング,円形推論,スコアクラスタリング,オーディエンスミスマッチ)を実装した。
6個の活版と609個のタイトルを流通管理する多版出版作業における展開結果について報告する。
3つのケーススタディ — 児童文学小説の270評価パネルと、軍用回顧録と海軍戦略モノグラフのための2つの5人の専門家パネル — は、合成パネルが動作可能な人口動態のセグメンテーションを生成し、均質なレビュアーに見えない構造的内容の問題を識別し、低品質の概念を排除し、高品質の生存者を15%から62%まで濃縮するトーナメントフィルタリングを可能にすることを実証している。
関連論文リスト
- Beyond Survival: Evaluating LLMs in Social Deduction Games with Human-Aligned Strategies [54.08697738311866]
Werewolfのようなソーシャル推論ゲームは、言語、推論、戦略を組み合わせている。
我々は,100時間以上のビデオ,32.4M発声トークン,15の規則変種を含む高品質で人間認証されたWerewolfデータセットをキュレートした。
本稿では,勝利派戦略を2段階の真理として活用する新たな戦略調整評価法を提案する。
論文 参考訳(メタデータ) (2025-10-13T13:33:30Z) - Simulating Identity, Propagating Bias: Abstraction and Stereotypes in LLM-Generated Text [8.988787218035414]
ソシオデミノグラフィーのカテゴリーとステレオタイプ的・非ステレオタイプ的属性をリンクする短いテキストを生成する際に,ペルソナ・プロンプトが言語的抽象化のレベルを異にするかどうかを検討する。
本研究は, ソシオデミノグラフィーグループを代表するペルソナの生態に対する批判と, ステレオタイプの普及リスクへの懸念を提起するものである。
論文 参考訳(メタデータ) (2025-09-10T10:49:21Z) - Investigating Intersectional Bias in Large Language Models using Confidence Disparities in Coreference Resolution [5.061421107401101]
大規模言語モデル(LLM)は目覚ましいパフォーマンスを達成し、採用や受け入れといったリソース制約のあるコンテキストで意思決定支援ツールとして広く採用されている。
しかし、AIシステムは社会的バイアスを反映し、さらに悪化させることができるという科学的コンセンサスがあり、批判的な社会的文脈で使用される場合、アイデンティティに基づく害についての懸念が高まる。
本研究では,複数の識別軸が交差する際,異なる不利パターンを生じることを認識して,一軸の公平性評価を拡張し,交差バイアスを検証した。
論文 参考訳(メタデータ) (2025-08-09T22:24:40Z) - Post-hoc Study of Climate Microtargeting on Social Media Ads with LLMs: Thematic Insights and Fairness Evaluation [24.599293872173362]
本研究は,温暖化対策におけるマイクロターゲットの実践に関するポストホック分析である。
大規模言語モデル(LLM)が意図する人口目標を正確に予測する能力を評価する。
モデル予測におけるバイアスを明らかにするために、包括的公正分析を行う。
論文 参考訳(メタデータ) (2024-10-07T18:07:56Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。