論文の概要: Rethinking LLM Human Simulation: When a Graph is What You Need
- arxiv url: http://arxiv.org/abs/2511.02135v1
- Date: Mon, 03 Nov 2025 23:54:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.75377
- Title: Rethinking LLM Human Simulation: When a Graph is What You Need
- Title(参考訳): LLMの人間シミュレーションを再考:グラフが必要なとき
- Authors: Joseph Suh, Suhong Moon, Serina Chang,
- Abstract要約: 大規模言語モデル(LLM)は、調査予測から意思決定に至るまで、人間をシミュレートするためにますます使われている。
個別の選択肢の中から個人が選択するシミュレーション問題のクラスを特定する。
本稿では、グラフ上のリンク予測問題として、個別選択シミュレーションタスクをキャストする、人体シミュレーションのためのGraph-basEd Models(GEMS)を紹介する。
- 参考スコア(独自算出の注目度): 8.616656201091319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used to simulate humans, with applications ranging from survey prediction to decision-making. However, are LLMs strictly necessary, or can smaller, domain-grounded models suffice? We identify a large class of simulation problems in which individuals make choices among discrete options, where a graph neural network (GNN) can match or surpass strong LLM baselines despite being three orders of magnitude smaller. We introduce Graph-basEd Models for human Simulation (GEMS), which casts discrete choice simulation tasks as a link prediction problem on graphs, leveraging relational knowledge while incorporating language representations only when needed. Evaluations across three key settings on three simulation datasets show that GEMS achieves comparable or better accuracy than LLMs, with far greater efficiency, interpretability, and transparency, highlighting the promise of graph-based modeling as a lightweight alternative to LLMs for human simulation. Our code is available at https://github.com/schang-lab/gems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、調査予測から意思決定に至るまで、人間をシミュレートするためにますます使われている。
しかし、LLMは厳格に必要か、それともより小さなドメイン基底モデルで十分か?
我々は、グラフニューラルネットワーク(GNN)が3桁小さいにもかかわらず、強いLCMベースラインにマッチまたは超えるような、個別の選択肢の中から個人が選択する、大規模なシミュレーション問題を特定する。
本稿では,人体シミュレーションのためのGraph-basEd Models for Human Simulation(GEMS)を紹介する。
3つのシミュレーションデータセットにおける3つの重要な設定による評価は、GEMSがLLMと同等かそれ以上の精度を達成し、はるかに高い効率、解釈可能性、透明性を示し、人間のシミュレーションにLLMの軽量な代替品としてグラフベースのモデリングが期待できることを強調している。
私たちのコードはhttps://github.com/schang-lab/gems.comで利用可能です。
関連論文リスト
- Scaling Spatial Reasoning in MLLMs through Programmatic Data Synthesis [8.60591720958037]
VLM(Vision-Language Models)はスケーラブルだが構造的に剛性があり、手動のアノテーションは言語的に多様だが拡張不可能である。
本稿では,シミュレータと大規模モデルを活用したこのジレンマを克服する新しいフレームワークSP-RITEを紹介する。
我々は,3つのシミュレータ,11k以上のシーン,300k以上の画像/映像のインストラクションチューニングペアを含むデータセットをキュレートした。
我々のデータに基づいて訓練されたVLMは、複数の空間ベンチマークにおいて大きな性能向上を達成できることを実証する。
論文 参考訳(メタデータ) (2025-12-18T06:30:08Z) - SimBench: Benchmarking the Ability of Large Language Models to Simulate Human Behaviors [58.87134689752605]
我々は,LLMシミュレーションの堅牢で再現可能な科学のための,最初の大規模標準ベンチマークであるSimBenchを紹介する。
現在、最高のLLMでさえシミュレーション能力が限られ(スコア: 40.80/100)、性能はモデルサイズと対数的にスケールする。
シミュレーション能力は、深い知識集約的推論と最も強く相関していることを示す。
論文 参考訳(メタデータ) (2025-10-20T13:14:38Z) - What Do LLMs Need to Understand Graphs: A Survey of Parametric Representation of Graphs [69.48708136448694]
大規模言語モデル(LLM)は、期待される推論能力と推論能力のために、AIコミュニティで再編成されている。
我々は、グラフのこのようなパラメトリック表現、グラフ法則は、LLMがグラフデータを入力として理解させるソリューションであると信じている。
論文 参考訳(メタデータ) (2024-10-16T00:01:31Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [70.03602551880526]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - GOFA: A Generative One-For-All Model for Joint Graph Language Modeling [38.267339613261996]
この問題を解決するために,新たに生成グラフ言語モデルGOFAを提案する。
GOFAは、新たに提案されたグラフレベルの次単語予測、質問応答、構造的タスクに基づいて事前訓練されている。
モデルは様々な下流タスクに基づいて評価され、ゼロショットシナリオにおける構造的および文脈的問題を解く強力な能力を示す。
論文 参考訳(メタデータ) (2024-07-12T22:23:51Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Active Learning for Computationally Efficient Distribution of Binary
Evolution Simulations [0.19359975080269876]
我々は,データ収集プロセスにおける機械学習を用いて,対象とするシミュレーションを適応的かつ反復的に選択する,新しい能動的学習アルゴリズムであるpsy-crisを提案する。
おもちゃの問題に対してpsy-crisを試験し、その結果のトレーニングセットが正規またはランダムにサンプリングされたグリッドよりも正確な分類と回帰のシミュレーションを少なくする必要があることを発見した。
論文 参考訳(メタデータ) (2022-03-30T21:36:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。