論文の概要: LLMs Model Non-WEIRD Populations: Experiments with Synthetic Cultural Agents
- arxiv url: http://arxiv.org/abs/2501.06834v1
- Date: Sun, 12 Jan 2025 15:06:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:28:07.451051
- Title: LLMs Model Non-WEIRD Populations: Experiments with Synthetic Cultural Agents
- Title(参考訳): LLMsモデル非WIRD人口:合成文化エージェントを用いた実験
- Authors: Augusto Gonzalez-Bonorino, Monica Capra, Emilio Pantoja,
- Abstract要約: 我々は、多様で非WEIRD(西欧、教育、工業化、富裕化、民主化)の経済行動を研究する。
我々は、これらの人口を表す合成文化的エージェント(SCA)を作成するために、LLM(Large Language Models)を使用します。
本研究は,実験行動における異文化間差異を顕著に示すものである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Despite its importance, studying economic behavior across diverse, non-WEIRD (Western, Educated, Industrialized, Rich, and Democratic) populations presents significant challenges. We address this issue by introducing a novel methodology that uses Large Language Models (LLMs) to create synthetic cultural agents (SCAs) representing these populations. We subject these SCAs to classic behavioral experiments, including the dictator and ultimatum games. Our results demonstrate substantial cross-cultural variability in experimental behavior. Notably, for populations with available data, SCAs' behaviors qualitatively resemble those of real human subjects. For unstudied populations, our method can generate novel, testable hypotheses about economic behavior. By integrating AI into experimental economics, this approach offers an effective and ethical method to pilot experiments and refine protocols for hard-to-reach populations. Our study provides a new tool for cross-cultural economic studies and demonstrates how LLMs can help experimental behavioral research.
- Abstract(参考訳): その重要性にもかかわらず、様々な非WEIRD(西欧、教育、工業化、富裕化、民主化)の経済行動を研究することは重大な課題である。
本稿では, 言語モデル (LLMs) を用いてこれらの人口を表す合成文化的エージェント (SCAs) を作成する手法を導入することにより, この問題に対処する。
我々はこれらのSCAを、独裁者や最後通しゲームを含む古典的な行動実験に応用する。
本研究は,実験行動における異文化間差異を顕著に示すものである。
特に、利用可能なデータを持つ人口にとって、SCAの行動は実際の人間の行動と質的に類似している。
未調査個体群に対しては, 経済行動に関する新しい, 実証可能な仮説を導出できる。
このアプローチは、AIを実験経済学に統合することにより、実験を試験し、到達しにくい人口のためのプロトコルを洗練するための効果的で倫理的な方法を提供する。
我々の研究は、異文化間経済研究のための新しいツールを提供し、LLMが実験行動研究にどのように役立つかを実証する。
関連論文リスト
- Causal Lifting of Neural Representations: Zero-Shot Generalization for Causal Inferences [56.23412698865433]
本研究では,ラベル付き類似実験を微調整した予測モデルを用いて,ラベル付き実結果を用いた対象実験の因果推論に焦点をあてる。
まず,経験的リスク最小化(ERM)による実結果推定は,対象個体群に対して有効な因果推論を導出できない可能性があることを示す。
本稿では,実証的リスク最小化法(DEM)を提案する。
論文 参考訳(メタデータ) (2025-02-10T10:52:17Z) - TwinMarket: A Scalable Behavioral and Social Simulation for Financial Markets [24.354300029071418]
大規模言語モデル(LLM)エージェントは人間の振る舞いをモデル化するためのシミュレーションツールとして注目を集めている。
社会経済システムのシミュレートにLLMを活用する新しいマルチエージェントフレームワークであるTwinMarketを紹介した。
我々のアプローチは、個人の意思決定と集団社会経済パターンの間の複雑な相互作用に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-03T16:39:48Z) - Chain of Ideas: Revolutionizing Research Via Novel Idea Development with LLM Agents [64.64280477958283]
科学文献の急激な増加は、研究者が最近の進歩と意義ある研究方向を見極めるのを困難にしている。
大規模言語モデル(LLM)の最近の発展は、新しい研究のアイデアを自動生成するための有望な道のりを示唆している。
本研究では, チェーン構造に関連文献を整理し, 研究領域の進展を効果的に反映する, LLMベースのエージェントであるChain-of-Ideas(CoI)エージェントを提案する。
論文 参考訳(メタデータ) (2024-10-17T03:26:37Z) - Reproducing and Extending Experiments in Behavioral Strategy with Large Language Models [0.0]
我々は,大規模言語モデル(LLM)生成エージェントを用いた行動戦略における人間の実験室実験を再現する。
以上の結果から,LLMエージェントは,人間に匹敵する探索行動や意思決定を効果的に再現できることが示唆された。
論文 参考訳(メタデータ) (2024-10-09T14:26:20Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Using LLMs to Model the Beliefs and Preferences of Targeted Populations [4.0849074543032105]
本研究では,人間の嗜好をモデル化する大規模言語モデル (LLM) の整合性について考察する。
特定の集団の信念、好み、行動のモデル化は、様々な応用に有用である。
論文 参考訳(メタデータ) (2024-03-29T15:58:46Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Survey of Social Bias in Vision-Language Models [65.44579542312489]
調査の目的は、NLP、CV、VLをまたいだ事前学習モデルにおける社会バイアス研究の類似点と相違点について、研究者に高いレベルの洞察を提供することである。
ここで提示された発見とレコメンデーションはMLコミュニティの利益となり、公平でバイアスのないAIモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-09-24T15:34:56Z) - Online simulator-based experimental design for cognitive model selection [74.76661199843284]
本稿では,抽出可能な確率を伴わない計算モデルを選択する実験設計手法BOSMOSを提案する。
シミュレーション実験では,提案手法により,既存のLFI手法に比べて最大2桁の精度でモデルを選択することができることを示した。
論文 参考訳(メタデータ) (2023-03-03T21:41:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。