論文の概要: Large Language Models for Behavioral Economics: Internal Validity and Elicitation of Mental Models
- arxiv url: http://arxiv.org/abs/2407.12032v1
- Date: Sun, 30 Jun 2024 10:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 11:20:27.674103
- Title: Large Language Models for Behavioral Economics: Internal Validity and Elicitation of Mental Models
- Title(参考訳): 行動経済学のための大規模言語モデル:内的妥当性とメンタルモデルの排除
- Authors: Brian Jabarian,
- Abstract要約: 我々は、生成AI、特にLarge Language Models(LLMs)を行動経済学や実験経済学に統合し、内部妥当性を高めるための変革の可能性を探る。
本研究では, LLMが実験設計, 参加意識, 精神モデル測定の妥当性をいかに向上させるかを示すケーススタディを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this article, we explore the transformative potential of integrating generative AI, particularly Large Language Models (LLMs), into behavioral and experimental economics to enhance internal validity. By leveraging AI tools, researchers can improve adherence to key exclusion restrictions and in particular ensure the internal validity measures of mental models, which often require human intervention in the incentive mechanism. We present a case study demonstrating how LLMs can enhance experimental design, participant engagement, and the validity of measuring mental models.
- Abstract(参考訳): 本稿では,生成型AI,特にLarge Language Models(LLMs)を行動経済学や実験経済学に統合し,内部妥当性を高めるための変革の可能性について検討する。
AIツールを活用することで、研究者は主要な排除制限への順守を改善し、特にインセンティブメカニズムへの人間の介入を必要とするメンタルモデルの内部的妥当性を確実にすることができる。
本研究では, LLMが実験設計, 参加意識, 精神モデル測定の妥当性をいかに向上させるかを示すケーススタディを提案する。
関連論文リスト
- Can Language Models Learn to Skip Steps? [59.84848399905409]
我々は推論においてステップをスキップする能力について研究する。
効率を高めたり認知負荷を減らすためのステップをスキップする人間とは異なり、モデルはそのようなモチベーションを持っていない。
私たちの研究は、人間のようなステップスキッピング能力に関する最初の調査である。
論文 参考訳(メタデータ) (2024-11-04T07:10:24Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - Alleviating Hallucinations in Large Language Models with Scepticism Modeling [7.976667090775774]
幻覚は、大きな言語モデル(LLM)にとって大きな課題である。
不確実性推定は幻覚の損傷を軽減するために用いられる。
この観察により、我々は懐疑論モデリング(SM)と呼ばれる新しいアプローチを提案した。
論文 参考訳(メタデータ) (2024-09-10T15:51:15Z) - Improving the Prediction of Individual Engagement in Recommendations Using Cognitive Models [21.15527488762049]
本稿では、インスタンスベース学習理論に基づく認知モデルが、既存の純粋計算アプローチをどのように拡張するかを示す。
この結果から,一般時系列予測器(LSTMなど)と比較して,ILBモデルは個人の状態のダイナミクスをよりよく予測できることがわかった。
論文 参考訳(メタデータ) (2024-08-28T21:28:45Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Mental Modeling of Reinforcement Learning Agents by Language Models [14.668006477454616]
この研究は、いかに大きな言語モデルがエージェントのメンタルモデルを構築することができるか、初めて実証的に検証する。
本研究は, LLMを用いたRL剤の挙動解明の可能性を明らかにする。
論文 参考訳(メタデータ) (2024-06-26T17:14:45Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。