論文の概要: Rethinking LLM Human Simulation: When a Graph is What You Need
- arxiv url: http://arxiv.org/abs/2511.02135v1
- Date: Mon, 03 Nov 2025 23:54:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.75377
- Title: Rethinking LLM Human Simulation: When a Graph is What You Need
- Title(参考訳): LLMの人間シミュレーションを再考:グラフが必要なとき
- Authors: Joseph Suh, Suhong Moon, Serina Chang,
- Abstract要約: 大規模言語モデル(LLM)は、調査予測から意思決定に至るまで、人間をシミュレートするためにますます使われている。
個別の選択肢の中から個人が選択するシミュレーション問題のクラスを特定する。
本稿では、グラフ上のリンク予測問題として、個別選択シミュレーションタスクをキャストする、人体シミュレーションのためのGraph-basEd Models(GEMS)を紹介する。
- 参考スコア(独自算出の注目度): 8.616656201091319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used to simulate humans, with applications ranging from survey prediction to decision-making. However, are LLMs strictly necessary, or can smaller, domain-grounded models suffice? We identify a large class of simulation problems in which individuals make choices among discrete options, where a graph neural network (GNN) can match or surpass strong LLM baselines despite being three orders of magnitude smaller. We introduce Graph-basEd Models for human Simulation (GEMS), which casts discrete choice simulation tasks as a link prediction problem on graphs, leveraging relational knowledge while incorporating language representations only when needed. Evaluations across three key settings on three simulation datasets show that GEMS achieves comparable or better accuracy than LLMs, with far greater efficiency, interpretability, and transparency, highlighting the promise of graph-based modeling as a lightweight alternative to LLMs for human simulation. Our code is available at https://github.com/schang-lab/gems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、調査予測から意思決定に至るまで、人間をシミュレートするためにますます使われている。
しかし、LLMは厳格に必要か、それともより小さなドメイン基底モデルで十分か?
我々は、グラフニューラルネットワーク(GNN)が3桁小さいにもかかわらず、強いLCMベースラインにマッチまたは超えるような、個別の選択肢の中から個人が選択する、大規模なシミュレーション問題を特定する。
本稿では,人体シミュレーションのためのGraph-basEd Models for Human Simulation(GEMS)を紹介する。
3つのシミュレーションデータセットにおける3つの重要な設定による評価は、GEMSがLLMと同等かそれ以上の精度を達成し、はるかに高い効率、解釈可能性、透明性を示し、人間のシミュレーションにLLMの軽量な代替品としてグラフベースのモデリングが期待できることを強調している。
私たちのコードはhttps://github.com/schang-lab/gems.comで利用可能です。
関連論文リスト
- SimBench: Benchmarking the Ability of Large Language Models to Simulate Human Behaviors [58.87134689752605]
我々は,LLMシミュレーションの堅牢で再現可能な科学のための,最初の大規模標準ベンチマークであるSimBenchを紹介する。
現在、最高のLLMでさえシミュレーション能力が限られ(スコア: 40.80/100)、性能はモデルサイズと対数的にスケールする。
シミュレーション能力は、深い知識集約的推論と最も強く相関していることを示す。
論文 参考訳(メタデータ) (2025-10-20T13:14:38Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [70.03602551880526]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。