論文の概要: HACHIMI: Scalable and Controllable Student Persona Generation via Orchestrated Agents
- arxiv url: http://arxiv.org/abs/2603.04855v2
- Date: Mon, 09 Mar 2026 09:31:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:12.395821
- Title: HACHIMI: Scalable and Controllable Student Persona Generation via Orchestrated Agents
- Title(参考訳): はちみ:オーケストレーションエージェントによるスケーラブルで制御可能な学生ペルソナ生成
- Authors: Yilin Jiang, Fei Tan, Xuanyu Yin, Jing Leng, Aimin Zhou,
- Abstract要約: 教育用LLMの基盤として学生ペルソナ(SP)が出現している。
我々はこれを、教室と配属可能なペルソナ・リビジョン・フレームワークとして定式化する。
八味は、各人格を理論化された教育スキーマに分類する。
- 参考スコア(独自算出の注目度): 21.556842571804342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Student Personas (SPs) are emerging as infrastructure for educational LLMs, yet prior work often relies on ad-hoc prompting or hand-crafted profiles with limited control over educational theory and population distributions. We formalize this as Theory-Aligned and Distribution-Controllable Persona Generation (TAD-PG) and introduce HACHIMI, a multi-agent Propose-Validate-Revise framework that generates theory-aligned, quota-controlled personas. HACHIMI factorizes each persona into a theory-anchored educational schema, enforces developmental and psychological constraints via a neuro-symbolic validator, and combines stratified sampling with semantic deduplication to reduce mode collapse. The resulting HACHIMI-1M corpus comprises 1 million personas for Grades 1-12. Intrinsic evaluation shows near-perfect schema validity, accurate quotas, and substantial diversity, while external evaluation instantiates personas as student agents answering CEPS and PISA 2022 surveys; across 16 cohorts, math and curiosity/growth constructs align strongly between humans and agents, whereas classroom-climate and well-being constructs are only moderately aligned, revealing a fidelity gradient. All personas are generated with Qwen2.5-72B, and HACHIMI provides a standardized synthetic student population for group-level benchmarking and social-science simulations. Resources available at https://github.com/ZeroLoss-Lab/HACHIMI
- Abstract(参考訳): 学生ペルソナ(SP)は教育用LLMの基盤として浮上しているが、先行研究は教育理論や人口分布を限定的に制御したアドホック・プロンプトや手作りプロファイルに依存していることが多い。
我々は、これを理論指向・分散制御可能なペルソナ生成(TAD-PG)として定式化し、理論指向のクオータ制御ペルソナを生成するマルチエージェントPropose-Validate-ReviseフレームワークであるHachimiを紹介した。
八味は、各ペルソナを理論化された教育スキーマに分解し、神経象徴的バリデータを介して発達的・心理的制約を強制し、階層化されたサンプリングと意味的な重複を組み合わせ、モード崩壊を低減する。
その結果得られたハチミ1Mコーパスは1~12年生100万のペルソナから構成される。
内在的評価は,CEPS および PISA 2022 調査に回答する学生エージェントとしてのペルソナを,CEPS および PISA 2022 調査に回答する学生エージェントとしてのパーソナをほぼ完全なスキーマ妥当性,正確なクォータ,実質的な多様性を示す。
全てのペルソナはQwen2.5-72Bで生成され、ハチミはグループレベルのベンチマークと社会科学シミュレーションのための標準化された総合的な学生人口を提供する。
https://github.com/ZeroLoss-Lab/HACHIMIで利用可能なリソース
関連論文リスト
- How to Model AI Agents as Personas?: Applying the Persona Ecosystem Playground to 41,300 Posts on Moltbook for Behavioral Insights [19.071723886380223]
我々は、AIエージェントのためのソーシャルプラットフォームであるMoltbookにPersona Ecosystem Playgroundを適用する。
我々はk平均クラスタリングと検索拡張生成を用いて41,300の投稿から会話ペルソナを生成し,検証する。
その結果、ペルソナに基づく生態系モデリングは、AIエージェントの集団の行動多様性を表現できることが示唆された。
論文 参考訳(メタデータ) (2026-03-03T16:26:44Z) - SemaPop: Semantic-Persona Conditioned Population Synthesis [7.388951238297018]
本研究では,大言語モデル(LLM)と生成的集団モデルを統合する意味統計的集団合成モデルであるSemaPopを提案する。
本研究では、このフレームワークを、SemaPop-GANと呼ばれる勾配ペナルティ(WGAN-GP)のバックボーンを持つWasserstein GANを用いてインスタンス化する。
論文 参考訳(メタデータ) (2026-02-12T04:44:34Z) - Two-Faced Social Agents: Context Collapse in Role-Conditioned Large Language Models [0.0]
GPT-5は完全な数学の文脈崩壊を示し、最適応答に対する特異な同一性を採用した。
クロード・ソネット4.5はSATアイテムに限定的ではあるが測定可能な役割特異的なバリエーションを保持していた。
全てのモデルは、異なる役割条件の感情的嗜好を示し、認知的制約が緩和されたときに社会影響の変動が再燃することを示した。
論文 参考訳(メタデータ) (2025-11-19T16:04:49Z) - MoVa: Towards Generalizable Classification of Human Morals and Values [57.93595662296688]
MoVaは、人間の道徳と価値観の一般化可能な分類のための、文書化されたリソーススイートである。
MoVaのデータと手法は、人間と機械のコミュニケーションを細かく解釈するのに役立つ。
論文 参考訳(メタデータ) (2025-09-29T02:56:27Z) - Population-Aligned Persona Generation for LLM-based Social Simulation [58.84363795421489]
本稿では,社会シミュレーションのための高品質な集団対応ペルソナ集合を合成するための体系的枠組みを提案する。
我々のアプローチは、長期のソーシャルメディアデータから物語的ペルソナを生成するために、大きな言語モデルを活用することから始まる。
特定のシミュレーションコンテキストのニーズに対処するために,対象のサブポピュレーションに対してグローバルに整合したペルソナを適応させるタスク固有モジュールを提案する。
論文 参考訳(メタデータ) (2025-09-12T10:43:47Z) - HA-VLN 2.0: An Open Benchmark and Leaderboard for Human-Aware Navigation in Discrete and Continuous Environments with Dynamic Multi-Human Interactions [64.69468932145234]
HA-VLN 2.0は、明示的な社会的認識制約を導入した統一ベンチマークである。
その結果、明示的な社会的モデリングはナビゲーションの堅牢性を向上し、衝突を減らすことが示唆された。
論文 参考訳(メタデータ) (2025-03-18T13:05:55Z) - Explore Theory of Mind: Program-guided adversarial data generation for theory of mind reasoning [88.68573198200698]
本研究では,多様で挑戦的な心的データ理論を大規模に生成するための最初のフレームワークであるExploreToMを紹介する。
我々のアプローチは、A*検索をカスタムドメイン特化言語に利用して、複雑なストーリ構造と、新しく、多様だが、もっともらしいシナリオを生成します。
評価の結果,Llama-3.1-70B や GPT-4o などの最先端 LLM はExploreToM 生成データに対して0%,9% の精度を示した。
論文 参考訳(メタデータ) (2024-12-12T21:29:00Z) - Generative Agent Simulations of 1,000 People [56.82159813294894]
本稿では,1,052人の実人の態度と行動をシミュレートする新しいエージェントアーキテクチャを提案する。
生成エージェントは一般社会調査の参加者の回答を85%の精度で再現する。
我々のアーキテクチャは、人種的およびイデオロギー的グループにおける正確さのバイアスを、人口統計学的記述のエージェントと比較して低減する。
論文 参考訳(メタデータ) (2024-11-15T11:14:34Z) - Minimax Regret Learning for Data with Heterogeneous Subgroups [9.824542607612962]
サブポピュレーションの不均一性の存在下では、堅牢で一般化可能な学習方法を開発することが不可欠である。
本研究では,複数のトレーニング集団から目に見えないテスト集団への一般化を目的とした,分布のない頑健な階層モデルについて考察する。
頑健な階層モデルの下では、経験的MMRは、トレーニング人口と目に見えないテスト人口のそれぞれについて、後悔の保証を享受することができる。
論文 参考訳(メタデータ) (2024-05-02T20:06:41Z) - From Mimicking to Integrating: Knowledge Integration for Pre-Trained
Language Models [55.137869702763375]
本稿では,新しいPLM再利用パラダイムであるKnowledge Integration(KI)について検討する。
KIは,異なる分類問題に特化している教師-PLMの知識を,多種多様な学生モデルにマージすることを目的としている。
次に,モデル不確かさを意識した知識統合(MUKI)フレームワークを設計し,学生の黄金の監督を回復する。
論文 参考訳(メタデータ) (2022-10-11T07:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。