論文の概要: Synthetic Founders: AI-Generated Social Simulations for Startup Validation Research in Computational Social Science
- arxiv url: http://arxiv.org/abs/2509.02605v1
- Date: Fri, 29 Aug 2025 21:54:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.248638
- Title: Synthetic Founders: AI-Generated Social Simulations for Startup Validation Research in Computational Social Science
- Title(参考訳): シンセティック創業者たち : 計算社会科学におけるスタートアップ検証研究のためのAI生成社会シミュレーション
- Authors: Jorn K. Teutloff,
- Abstract要約: 人-対象面接データと大言語モデル(LLM)による合成ペルソナを比較し,AI対応シミュレーションにおける忠実度,分散度,盲点を評価する。
我々は、LLM駆動型ペルソナがハイブリッド社会シミュレーションの一形態であることを示す証拠として、この比較枠組みを解釈する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a comparative docking experiment that aligns human-subject interview data with large language model (LLM)-driven synthetic personas to evaluate fidelity, divergence, and blind spots in AI-enabled simulation. Fifteen early-stage startup founders were interviewed about their hopes and concerns regarding AI-powered validation, and the same protocol was replicated with AI-generated founder and investor personas. A structured thematic synthesis revealed four categories of outcomes: (1) Convergent themes - commitment-based demand signals, black-box trust barriers, and efficiency gains were consistently emphasized across both datasets; (2) Partial overlaps - founders worried about outliers being averaged away and the stress of real customer validation, while synthetic personas highlighted irrational blind spots and framed AI as a psychological buffer; (3) Human-only themes - relational and advocacy value from early customer engagement and skepticism toward moonshot markets; and (4) Synthetic-only themes - amplified false positives and trauma blind spots, where AI may overstate adoption potential by missing negative historical experiences. We interpret this comparative framework as evidence that LLM-driven personas constitute a form of hybrid social simulation: more linguistically expressive and adaptable than traditional rule-based agents, yet bounded by the absence of lived history and relational consequence. Rather than replacing empirical studies, we argue they function as a complementary simulation category - capable of extending hypothesis space, accelerating exploratory validation, and clarifying the boundaries of cognitive realism in computational social science.
- Abstract(参考訳): 本稿では,人間対象の面接データを大言語モデル(LLM)駆動の合成ペルソナと整合させるドッキング実験を行い,AIによるシミュレーションにおける忠実度,ばらつき,盲点の評価を行う。
アーリーステージのスタートアップのファウンダー15人が、AIによる検証に関する彼らの希望と懸念についてインタビューされた。
コンバージェント・テーマ - コミットメントに基づく需要信号、ブラックボックス・トラスト・バリア、効率向上が両データセットで一貫して強調された(2) 部分的なオーバーラップ - 外部からの平均値と実際の顧客評価のストレスを心配する創業者 - 合成ペルソナは不合理な盲点とフレーム化されたAIを心理的バッファとして強調し、(3) 人専用のテーマ - 初期の顧客エンゲージメントからのリレーショナル・アドボケート価値とムーンショット市場に対する懐疑主義、(4) 合成専用テーマ - 偽陽性とトラウマ・ブラインドスポットの増幅、AIが負の歴史的経験を欠くことによって採用の可能性を誇張する可能性がある。
我々は、この比較枠組みを、LLM駆動のペルソナが、従来のルールベースのエージェントよりも言語的に表現され、適応可能でありながら、生きた歴史と関係した結果の欠如によって境界づけられているという、ハイブリッド社会シミュレーションの一形態であることを示す証拠として解釈する。
実験的な研究を置き換えるのではなく、仮説空間を拡張し、探索的検証を加速し、計算社会科学における認知リアリズムの境界を明確にする、補完的なシミュレーションカテゴリとして機能すると主張する。
関連論文リスト
- Towards Safer AI Moderation: Evaluating LLM Moderators Through a Unified Benchmark Dataset and Advocating a Human-First Approach [0.9147875523270338]
大規模言語モデル(LLM)は、複雑さとパフォーマンスにおいて、以前のモデルを上回る優れた機能を示している。
彼らは、これらの問題の主観的で文脈に依存した性質のために、暗黙の憎しみ、攻撃的な言葉、性別の偏見を検出するのに苦労している。
我々は、人間の感情や攻撃行動を評価するために、最先端(SOTA)モデルに基づく実験フレームワークを開発した。
論文 参考訳(メタデータ) (2025-08-09T18:00:27Z) - LLM-Based Social Simulations Require a Boundary [3.351170542925928]
大規模言語モデル(LLM)に基づく社会シミュレーションは明確な境界を確立するべきである。
本稿では、アライメント(実世界のパターンにマッチするシミュレーション行動)、一貫性(時間とともに一貫性のあるエージェント動作を維持する)、堅牢性という3つの重要な境界問題について検討する。
論文 参考訳(メタデータ) (2025-06-24T17:14:47Z) - From Human to Machine Psychology: A Conceptual Framework for Understanding Well-Being in Large Language Models [0.0]
本稿では,機械の繁栄の概念を紹介し,PAPERSフレームワークを提案する。
我々の発見は、人間とシステム固有の優先順位の両方を考慮に入れた、AI固有の繁栄モデルを開発することの重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-14T20:14:02Z) - The Traitors: Deception and Trust in Multi-Agent Language Model Simulations [0.0]
ソーシャル・デダクション・ゲームに触発されたマルチエージェント・シミュレーション・フレームワークであるThe Traitorsを紹介した。
我々は,詐欺の成功,信頼ダイナミクス,集団推論品質を計測する評価指標のスイートを開発する。
DeepSeek-V3, GPT-4o-mini, GPT-4o(モデル毎に10回の走行)による実験では, 顕著な非対称性が示された。
論文 参考訳(メタデータ) (2025-05-19T10:01:35Z) - YuLan-OneSim: Towards the Next Generation of Social Simulator with Large Language Models [50.35333054932747]
本稿では,YuLan-OneSimというソーシャルシミュレータを紹介する。
ユーザは、シミュレータとの自然言語インタラクションを通じて、シミュレーションシナリオを記述し、洗練することができます。
我々は、経済学、社会学、政治、心理学、組織、人口統計学、法律、コミュニケーションを含む8つの領域にまたがる50のデフォルトシミュレーションシナリオを実装した。
論文 参考訳(メタデータ) (2025-05-12T14:05:17Z) - On the meaning of uncertainty for ethical AI: philosophy and practice [10.591284030838146]
これは、数学的推論に倫理的考察をもたらす重要な方法であると主張する。
我々は、2021年12月のOmicron型COVID-19の拡散について、英国政府に助言するために使用される競合モデルの文脈内でこれらのアイデアを実証する。
論文 参考訳(メタデータ) (2023-09-11T15:13:36Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。