論文の概要: Can LLMs Replace Economic Choice Prediction Labs? The Case of Language-based Persuasion Games
- arxiv url: http://arxiv.org/abs/2401.17435v4
- Date: Wed, 14 Aug 2024 19:23:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 18:53:22.382934
- Title: Can LLMs Replace Economic Choice Prediction Labs? The Case of Language-based Persuasion Games
- Title(参考訳): LLMは経済選択予測研究所を置き換えることができるか? 言語による説得ゲームの場合
- Authors: Eilam Shapira, Omer Madmon, Roi Reichart, Moshe Tennenholtz,
- Abstract要約: 学習したモデルは,言語に基づく説得ゲームにおいて,人間の行動を効果的に予測できることを示す。
実験の結果,LLMデータでトレーニングしたモデルは,実際の人的データでトレーニングしたモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 22.01549425007543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human choice prediction in economic contexts is crucial for applications in marketing, finance, public policy, and more. This task, however, is often constrained by the difficulties in acquiring human choice data. With most experimental economics studies focusing on simple choice settings, the AI community has explored whether LLMs can substitute for humans in these predictions and examined more complex experimental economics settings. However, a key question remains: can LLMs generate training data for human choice prediction? We explore this in language-based persuasion games, a complex economic setting involving natural language in strategic interactions. Our experiments show that models trained on LLM-generated data can effectively predict human behavior in these games and even outperform models trained on actual human data.
- Abstract(参考訳): 経済状況における人間の選択予測は、マーケティング、金融、公共政策などにおける応用に不可欠である。
しかし、このタスクは人間の選択データを取得することの難しさによって制約されることが多い。
単純な選択設定に焦点をあてた多くの実験経済学研究において、AIコミュニティは、これらの予測においてLLMが人間に代わることができるかどうかを調査し、より複雑な実験経済学設定を検証した。
しかし、重要な疑問が残る: LLMは人間の選択予測のためのトレーニングデータを生成することができるか?
我々は、自然言語を戦略的相互作用に含む複雑な経済環境である言語ベースの説得ゲームでこれを探求する。
実験の結果, LLMデータに基づいてトレーニングしたモデルは, これらのゲームにおける人間の振る舞いを効果的に予測し, 実際の人間のデータでトレーニングしたモデルよりも優れていた。
関連論文リスト
- LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - EconNLI: Evaluating Large Language Models on Economics Reasoning [22.754757518792395]
LLM(Large Language Models)は、経済分析レポートの作成や、財政的なアドバイスを提供するために広く使われている。
経済分野におけるLLMの知識と推論能力を評価するために,新たなデータセット,経済事象に関する自然言語推論(EconNLI)を提案する。
実験の結果, LLMは経済的な推論では洗練されておらず, 誤りや幻覚を生じさせる可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-01T11:58:24Z) - LABOR-LLM: Language-Based Occupational Representations with Large Language Models [8.909328013944567]
本稿では,CAREER ファンデーションモデルの微調整を微調整 LLM に置き換える方法を検討する。
細調整されたLLMモデル予測は、市販のLLMモデルやCAREERよりも、様々な労働者サブ集団のキャリアトラジェクトリを代表していることを示す。
論文 参考訳(メタデータ) (2024-06-25T23:07:18Z) - Character is Destiny: Can Large Language Models Simulate Persona-Driven Decisions in Role-Playing? [59.0123596591807]
ペルソナ駆動意思決定における大規模言語モデルの能力のベンチマークを行う。
高品質な小説において, LLM が先行する物語の登場人物の判断を予測できるかどうかを考察する。
その結果、現状のLLMは、このタスクに有望な能力を示すが、改善の余地は十分にあることが示された。
論文 参考訳(メタデータ) (2024-04-18T12:40:59Z) - Analyzing the Impact of Data Selection and Fine-Tuning on Economic and Political Biases in LLMs [1.1704154007740835]
大規模言語モデル(LLM)における微調整とデータ選択が経済的・政治的バイアスに与える影響について検討する。
我々は,LPMを目標イデオロギーと整合させるためのPEFT(Efficient Fine-Tuning)技術を用いて,パラメータの小さなサブセットを修正した。
我々の研究は、AIの倫理的応用に関する対話に寄与し、社会的価値に合わせた方法でAIをデプロイすることの重要性を強調します。
論文 参考訳(メタデータ) (2024-04-10T16:30:09Z) - Where Would I Go Next? Large Language Models as Human Mobility
Predictors [21.100313868232995]
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
論文 参考訳(メタデータ) (2023-08-29T10:24:23Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。