論文の概要: Predicting Human Choice Between Textually Described Lotteries
- arxiv url: http://arxiv.org/abs/2503.14004v1
- Date: Tue, 18 Mar 2025 08:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:15:09.313938
- Title: Predicting Human Choice Between Textually Described Lotteries
- Title(参考訳): テキストで記述されたロット間の人間の選択を予測する
- Authors: Eyal Marantz, Ori Plonsky,
- Abstract要約: 本研究では,このような課題における人的意思決定の大規模探索を初めて行った。
我々は、微調整された大規模言語モデルを含む複数の計算手法を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Predicting human decision-making under risk and uncertainty is a long-standing challenge in cognitive science, economics, and AI. While prior research has focused on numerically described lotteries, real-world decisions often rely on textual descriptions. This study conducts the first large-scale exploration of human decision-making in such tasks using a large dataset of one-shot binary choices between textually described lotteries. We evaluate multiple computational approaches, including fine-tuning Large Language Models (LLMs), leveraging embeddings, and integrating behavioral theories of choice under risk. Our results show that fine-tuned LLMs, specifically RoBERTa and GPT-4o outperform hybrid models that incorporate behavioral theory, challenging established methods in numerical settings. These findings highlight fundamental differences in how textual and numerical information influence decision-making and underscore the need for new modeling strategies to bridge this gap.
- Abstract(参考訳): リスクと不確実性の下で人間の意思決定を予測することは、認知科学、経済学、AIにおける長年にわたる課題である。
これまでの研究では、数値的に記述された宝くじに焦点が当てられていたが、現実の判断は、しばしばテキストによる記述に依存している。
本研究は,テキストで記述された宝くじ間の一対一選択の大規模なデータセットを用いて,このようなタスクにおける人的意思決定の大規模探索を行う。
LLMの微調整、埋め込みの活用、リスク下での選択行動理論の統合など、複数の計算手法を評価した。
この結果から,微調整LLM,特にRoBERTaとGPT-4oは,行動理論を組み込んだハイブリッドモデルよりも優れた性能を示し,数値的な設定で確立された手法に挑戦した。
これらの知見は、テキスト情報と数値情報が意思決定にどのように影響するかの根本的な違いを強調し、このギャップを埋めるための新しいモデリング戦略の必要性を浮き彫りにしている。
関連論文リスト
- FFAA: Multimodal Large Language Model based Explainable Open-World Face Forgery Analysis Assistant [59.2438504610849]
FFAA: Face Forgery Analysis Assistant(MLLM)とMIDS(Multi-Awer Intelligent Decision System)について紹介する。
提案手法は,ユーザフレンドリで説明可能な結果を提供するだけでなく,従来の手法に比べて精度と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-19T15:15:20Z) - Enhancing Language Model Rationality with Bi-Directional Deliberation Reasoning [73.77288647011295]
本稿では,BI-Directional Deliberation Reasoning (BIDDER)を導入し,言語モデルの意思決定合理性を高める。
私たちのアプローチには3つの重要なプロセスがあります。
歴史的データから、意思決定過程における不確実な情報を表すために隠された国家を推定すること。
隠れた状態を使って将来の潜在的な状態と潜在的な結果を予測する。
歴史的情報(過去コンテキスト)と長期的結果(未来コンテキスト)を統合することで、推論を知らせる。
論文 参考訳(メタデータ) (2024-07-08T16:48:48Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Modeling Uncertainty in Personalized Emotion Prediction with Normalizing
Flows [6.32047610997385]
本研究では,条件付き正規化フローを用いて予測の不確かさを捉える新しい手法を提案する。
感情認識とヘイトスピーチを含む3つの主観的NLP課題に対して,本手法の有効性を検証した。
開発した手法によって得られた情報により,従来の手法を超越したハイブリッドモデルの構築が可能となった。
論文 参考訳(メタデータ) (2023-12-10T23:21:41Z) - A Survey of Contextual Optimization Methods for Decision Making under
Uncertainty [47.73071218563257]
この記事では、データからポリシーを学ぶための3つの主要なフレームワークを特定し、その強みと限界について論じる。
統一的な表記と用語の下で既存のモデルとメソッドを示し、これらを3つの主要なフレームワークに従って分類する。
論文 参考訳(メタデータ) (2023-06-17T15:21:02Z) - Ground(less) Truth: A Causal Framework for Proxy Labels in
Human-Algorithm Decision-Making [29.071173441651734]
人間のAI意思決定タスクにおけるプロキシラベルの有効性に影響を与える5つの変数バイアス源を同定する。
各バイアス間の関係を乱すための因果的枠組みを開発する。
今後の研究において、ターゲット変数バイアスに対処する機会について論じる。
論文 参考訳(メタデータ) (2023-02-13T16:29:11Z) - An Empirical Comparison of Explainable Artificial Intelligence Methods
for Clinical Data: A Case Study on Traumatic Brain Injury [8.913544654492696]
外傷性脳損傷の短期および長期予後予測モデルを構築した。
6つの異なる解釈手法が局所的および大域的レベルの予測モデルの両方を記述するために用いられた。
実装された手法は, 可視性, 忠実性, 安定性など, XAI の特徴の観点から比較した。
論文 参考訳(メタデータ) (2022-08-13T19:44:00Z) - From Cognitive to Computational Modeling: Text-based Risky
Decision-Making Guided by Fuzzy Trace Theory [5.154015755506085]
ファジィトレース理論(FTT)は、ジストを組み込むことで人間の意思決定を説明する強力なパラダイムである。
本稿では,テキストに基づく意思決定におけるセマンティクスと感情の影響を組み合わせた計算フレームワークを提案する。
特にカテゴリー2-を導入し、カテゴリー的ジストとカテゴリー的感情を学習し、グループや個人におけるリスクのある意思決定を予測するために、我々の計算モデルを最適化する方法を実証する。
論文 参考訳(メタデータ) (2022-05-15T02:25:28Z) - The Statistical Complexity of Interactive Decision Making [126.04974881555094]
複雑度尺度であるDecision-Estimation Coefficientは,サンプル効率のインタラクティブ学習に必要かつ十分であることが証明された。
統合アルゴリズム設計原則であるE2Dは、教師付き推定のための任意のアルゴリズムを、意思決定のためのオンラインアルゴリズムに変換する。
論文 参考訳(メタデータ) (2021-12-27T02:53:44Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Predicting human decisions with behavioral theories and machine learning [13.000185375686325]
BEAST Gradient Boosting (BEAST-GB) は,行動理論を機械学習技術と相乗する新しいハイブリッドモデルである。
BEAST-GBは,人的リスク選択のデータセットとして最大規模で,最先端のパフォーマンスを実現していることを示す。
また、BEAST-GBは、新しい実験コンテキストにおける選択の振る舞いを効果的に予測するため、堅牢なドメイン一般化機能を示す。
論文 参考訳(メタデータ) (2019-04-15T06:12:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。