論文の概要: Using Large Language Models to Simulate Human Behavioural Experiments: Port of Mars
- arxiv url: http://arxiv.org/abs/2506.05555v1
- Date: Thu, 05 Jun 2025 20:02:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.218163
- Title: Using Large Language Models to Simulate Human Behavioural Experiments: Port of Mars
- Title(参考訳): 大規模言語モデルによる人間行動実験のシミュレーション:火星の港
- Authors: Oliver Slumbers, Joel Z. Leibo, Marco A. Janssen,
- Abstract要約: 集団リスク社会ジレンマ(CRSD)は、個人の好みと貢献する必要性の間のトレードオフを浮き彫りにする。
生成AIは、この問題に対処するための潜在的補完的なアプローチを提供する。
本論文は,本手法の有効性と,十分に多様性のある大規模人型実験を表現可能であるかに焦点を当てる。
- 参考スコア(独自算出の注目度): 3.9113213777757383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collective risk social dilemmas (CRSD) highlight a trade-off between individual preferences and the need for all to contribute toward achieving a group objective. Problems such as climate change are in this category, and so it is critical to understand their social underpinnings. However, rigorous CRSD methodology often demands large-scale human experiments but it is difficult to guarantee sufficient power and heterogeneity over socio-demographic factors. Generative AI offers a potential complementary approach to address thisproblem. By replacing human participants with large language models (LLM), it allows for a scalable empirical framework. This paper focuses on the validity of this approach and whether it is feasible to represent a large-scale human-like experiment with sufficient diversity using LLM. In particular, where previous literature has focused on political surveys, virtual towns and classical game-theoretic examples, we focus on a complex CRSD used in the institutional economics and sustainability literature known as Port of Mars
- Abstract(参考訳): 集団リスク社会ジレンマ(CRSD)は、個人の嗜好と、グループ目標を達成するための貢献の必要性の間のトレードオフを浮き彫りにする。
気候変動のような問題はこのカテゴリーにあるので、彼らの社会的基盤を理解することが重要である。
しかし、厳密なCRSD手法は大規模な人間実験を必要とすることが多いが、社会デミノグラフィー因子に対する十分なパワーと不均一性を保証することは困難である。
生成AIは、この問題に対処するための潜在的補完的なアプローチを提供する。
人間の参加者を大きな言語モデル(LLM)に置き換えることで、スケーラブルな経験的フレームワークを実現することができる。
本稿は, LLM を用いた大規模人型実験の妥当性と, LLM を用いた多種多様さの表現が可能であるかに焦点を当てる。
特に、以前の文献が政治調査、仮想都市、古典的なゲーム理論の例に焦点をあてた場合、我々は、火星の港として知られる制度経済と持続可能性文学で使用される複雑なCRSDに焦点を当てる。
関連論文リスト
- SocioVerse: A World Model for Social Simulation Powered by LLM Agents and A Pool of 10 Million Real-World Users [70.02370111025617]
本稿では,社会シミュレーションのためのエージェント駆動世界モデルであるSocioVerseを紹介する。
私たちのフレームワークは、4つの強力なアライメントコンポーネントと1000万の実際の個人からなるユーザプールを備えています。
SocioVerseは、多様性、信頼性、代表性を確保しつつ、大規模な人口動態を反映できることを示した。
論文 参考訳(メタデータ) (2025-04-14T12:12:52Z) - LLM Generated Persona is a Promise with a Catch [18.45442859688198]
ペルソナをベースとしたシミュレーションは、人口レベルのフィードバックに依存した変革の規律を約束する。
現実的なペルソナデータを収集する従来の方法は課題に直面します。
プライバシーの制約により、違法に高価で物議を醸している。
論文 参考訳(メタデータ) (2025-03-18T03:11:27Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Survey of Social Bias in Vision-Language Models [65.44579542312489]
調査の目的は、NLP、CV、VLをまたいだ事前学習モデルにおける社会バイアス研究の類似点と相違点について、研究者に高いレベルの洞察を提供することである。
ここで提示された発見とレコメンデーションはMLコミュニティの利益となり、公平でバイアスのないAIモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-09-24T15:34:56Z) - Framework-Based Qualitative Analysis of Free Responses of Large Language
Models: Algorithmic Fidelity [1.7947441434255664]
大規模生成言語モデル(LLM)は、質的研究手法を用いて伝統的に分析されたようなインタビュー質問に対する自由応答をシミュレートすることができる。
本稿では, LLMが生成する人工シリコン参加者について, 定性的手法を用いて生産的に研究できるかどうかを考察する。
論文 参考訳(メタデータ) (2023-09-06T15:00:44Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。