論文の概要: Predicting Human Choice Between Textually Described Lotteries
- arxiv url: http://arxiv.org/abs/2503.14004v1
- Date: Tue, 18 Mar 2025 08:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 16:29:12.562316
- Title: Predicting Human Choice Between Textually Described Lotteries
- Title(参考訳): テキストで記述されたロット間の人間の選択を予測する
- Authors: Eyal Marantz, Ori Plonsky,
- Abstract要約: 本研究では,このような課題における人的意思決定の大規模探索を初めて行った。
我々は、微調整された大規模言語モデルを含む複数の計算手法を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting human decision-making under risk and uncertainty is a long-standing challenge in cognitive science, economics, and AI. While prior research has focused on numerically described lotteries, real-world decisions often rely on textual descriptions. This study conducts the first large-scale exploration of human decision-making in such tasks using a large dataset of one-shot binary choices between textually described lotteries. We evaluate multiple computational approaches, including fine-tuning Large Language Models (LLMs), leveraging embeddings, and integrating behavioral theories of choice under risk. Our results show that fine-tuned LLMs, specifically RoBERTa and GPT-4o outperform hybrid models that incorporate behavioral theory, challenging established methods in numerical settings. These findings highlight fundamental differences in how textual and numerical information influence decision-making and underscore the need for new modeling strategies to bridge this gap.
- Abstract(参考訳): リスクと不確実性の下で人間の意思決定を予測することは、認知科学、経済学、AIにおける長年にわたる課題である。
これまでの研究では、数値的に記述された宝くじに焦点が当てられていたが、現実の判断は、しばしばテキストによる記述に依存している。
本研究は,テキストで記述された宝くじ間の一対一選択の大規模なデータセットを用いて,このようなタスクにおける人的意思決定の大規模探索を行う。
LLMの微調整、埋め込みの活用、リスク下での選択行動理論の統合など、複数の計算手法を評価した。
この結果から,微調整LLM,特にRoBERTaとGPT-4oは,行動理論を組み込んだハイブリッドモデルよりも優れた性能を示し,数値的な設定で確立された手法に挑戦した。
これらの知見は、テキスト情報と数値情報が意思決定にどのように影響するかの根本的な違いを強調し、このギャップを埋めるための新しいモデリング戦略の必要性を浮き彫りにしている。
関連論文リスト
- Contextual Online Uncertainty-Aware Preference Learning for Human Feedback [13.478503755314344]
RLHF(Reinforcement Learning from Human Feedback)は人工知能において重要なパラダイムとなっている。
最適モデルに基づくオンライン意思決定と統計的推測を同時に行うための新しい統計的枠組みを提案する。
本稿では,大規模マルチタスク言語理解データセット上での大規模言語モデルのランク付けのための人間の嗜好データ分析に,提案手法を適用した。
論文 参考訳(メタデータ) (2025-04-27T19:59:11Z) - Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - FFAA: Multimodal Large Language Model based Explainable Open-World Face Forgery Analysis Assistant [59.2438504610849]
FFAA: Face Forgery Analysis Assistant(MLLM)とMIDS(Multi-Awer Intelligent Decision System)について紹介する。
提案手法は,ユーザフレンドリで説明可能な結果を提供するだけでなく,従来の手法に比べて精度と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-19T15:15:20Z) - Enhancing Language Model Rationality with Bi-Directional Deliberation Reasoning [73.77288647011295]
本稿では,BI-Directional Deliberation Reasoning (BIDDER)を導入し,言語モデルの意思決定合理性を高める。
私たちのアプローチには3つの重要なプロセスがあります。
歴史的データから、意思決定過程における不確実な情報を表すために隠された国家を推定すること。
隠れた状態を使って将来の潜在的な状態と潜在的な結果を予測する。
歴史的情報(過去コンテキスト)と長期的結果(未来コンテキスト)を統合することで、推論を知らせる。
論文 参考訳(メタデータ) (2024-07-08T16:48:48Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - A Survey of Contextual Optimization Methods for Decision Making under
Uncertainty [47.73071218563257]
この記事では、データからポリシーを学ぶための3つの主要なフレームワークを特定し、その強みと限界について論じる。
統一的な表記と用語の下で既存のモデルとメソッドを示し、これらを3つの主要なフレームワークに従って分類する。
論文 参考訳(メタデータ) (2023-06-17T15:21:02Z) - Ground(less) Truth: A Causal Framework for Proxy Labels in
Human-Algorithm Decision-Making [29.071173441651734]
人間のAI意思決定タスクにおけるプロキシラベルの有効性に影響を与える5つの変数バイアス源を同定する。
各バイアス間の関係を乱すための因果的枠組みを開発する。
今後の研究において、ターゲット変数バイアスに対処する機会について論じる。
論文 参考訳(メタデータ) (2023-02-13T16:29:11Z) - An Empirical Comparison of Explainable Artificial Intelligence Methods
for Clinical Data: A Case Study on Traumatic Brain Injury [8.913544654492696]
外傷性脳損傷の短期および長期予後予測モデルを構築した。
6つの異なる解釈手法が局所的および大域的レベルの予測モデルの両方を記述するために用いられた。
実装された手法は, 可視性, 忠実性, 安定性など, XAI の特徴の観点から比較した。
論文 参考訳(メタデータ) (2022-08-13T19:44:00Z) - From Cognitive to Computational Modeling: Text-based Risky
Decision-Making Guided by Fuzzy Trace Theory [5.154015755506085]
ファジィトレース理論(FTT)は、ジストを組み込むことで人間の意思決定を説明する強力なパラダイムである。
本稿では,テキストに基づく意思決定におけるセマンティクスと感情の影響を組み合わせた計算フレームワークを提案する。
特にカテゴリー2-を導入し、カテゴリー的ジストとカテゴリー的感情を学習し、グループや個人におけるリスクのある意思決定を予測するために、我々の計算モデルを最適化する方法を実証する。
論文 参考訳(メタデータ) (2022-05-15T02:25:28Z) - The Statistical Complexity of Interactive Decision Making [126.04974881555094]
複雑度尺度であるDecision-Estimation Coefficientは,サンプル効率のインタラクティブ学習に必要かつ十分であることが証明された。
統合アルゴリズム設計原則であるE2Dは、教師付き推定のための任意のアルゴリズムを、意思決定のためのオンラインアルゴリズムに変換する。
論文 参考訳(メタデータ) (2021-12-27T02:53:44Z) - Predicting human decisions with behavioral theories and machine learning [13.000185375686325]
BEAST Gradient Boosting (BEAST-GB) は,行動理論を機械学習技術と相乗する新しいハイブリッドモデルである。
BEAST-GBは,人的リスク選択のデータセットとして最大規模で,最先端のパフォーマンスを実現していることを示す。
また、BEAST-GBは、新しい実験コンテキストにおける選択の振る舞いを効果的に予測するため、堅牢なドメイン一般化機能を示す。
論文 参考訳(メタデータ) (2019-04-15T06:12:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。