論文の概要: Learning to Represent Individual Differences for Choice Decision Making
- arxiv url: http://arxiv.org/abs/2503.21704v1
- Date: Thu, 27 Mar 2025 17:10:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:54:26.658563
- Title: Learning to Represent Individual Differences for Choice Decision Making
- Title(参考訳): 選択決定のための個別差分表現の学習
- Authors: Yan-Ying Chen, Yue Weng, Alexandre Filipowicz, Rumen Iliev, Francine Chen, Shabnam Hakimi, Yanxia Zhang, Matthew Lee, Kent Lyons, Charlene Wu,
- Abstract要約: 我々は、表現学習を用いて、経済的な意思決定タスクにおいて、人のパフォーマンスの個人差を特徴づける。
表現学習を用いて個人差を捉えたモデルは、決定予測を一貫して改善することを示した。
この結果から,表現学習は個人差を捉えるのに有用で柔軟なツールであることが示唆された。
- 参考スコア(独自算出の注目度): 37.97312716637515
- License:
- Abstract: Human decision making can be challenging to predict because decisions are affected by a number of complex factors. Adding to this complexity, decision-making processes can differ considerably between individuals, and methods aimed at predicting human decisions need to take individual differences into account. Behavioral science offers methods by which to measure individual differences (e.g., questionnaires, behavioral models), but these are often narrowed down to low dimensions and not tailored to specific prediction tasks. This paper investigates the use of representation learning to measure individual differences from behavioral experiment data. Representation learning offers a flexible approach to create individual embeddings from data that are both structured (e.g., demographic information) and unstructured (e.g., free text), where the flexibility provides more options for individual difference measures for personalization, e.g., free text responses may allow for open-ended questions that are less privacy-sensitive. In the current paper we use representation learning to characterize individual differences in human performance on an economic decision-making task. We demonstrate that models using representation learning to capture individual differences consistently improve decision predictions over models without representation learning, and even outperform well-known theory-based behavioral models used in these environments. Our results propose that representation learning offers a useful and flexible tool to capture individual differences.
- Abstract(参考訳): 人間の意思決定は、決定が多くの複雑な要因に影響されるため、予測することが難しい。
この複雑さに加え、意思決定プロセスは個人によって大きく異なり、人間の決定を予測する方法には個人差を考慮する必要がある。
行動科学は、個人差(例えば、アンケート、行動モデル)を測定する方法を提供しているが、それらはしばしば低次元に絞られ、特定の予測タスクに適合しない。
本稿では,行動実験データと個人差を測定するための表現学習法について検討する。
表現学習は、構造化されたデータ(例えば、人口統計情報)と構造化されていないデータ(例えば、無料テキスト)から個々の埋め込みを作成する柔軟なアプローチを提供する。
本論文では,表現学習を用いて,経済的な意思決定課題における人的パフォーマンスの個人差を特徴付ける。
表現学習を用いて個人差を捉えたモデルは、表現学習を伴わないモデルよりも決定予測を一貫して改善し、これらの環境においてよく知られた理論に基づく行動モデルよりも優れていることを実証する。
この結果から,表現学習は個人差を捉えるのに有用で柔軟なツールであることが示唆された。
関連論文リスト
- Learning under Imitative Strategic Behavior with Unforeseeable Outcomes [14.80947863438795]
個人と意思決定者間の相互作用をモデル化するStackelbergゲームを提案する。
両者の目的的差異を3つの解釈可能な項に分解できることを示す。
論文 参考訳(メタデータ) (2024-05-03T00:53:58Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Quantifying Consistency and Information Loss for Causal Abstraction
Learning [16.17846886492361]
我々は、エージェントがそのようなトレードオフを評価するために使用できる介入措置のファミリーを紹介する。
我々は,異なるタスクに適した4つの尺度を考察し,その特性を分析し,因果的抽象を評価・学習するためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-07T19:10:28Z) - Learning Human-Compatible Representations for Case-Based Decision
Support [36.01560961898229]
アルゴリズムケースベースの意思決定サポートは、予測されたラベルを理解するのに役立つ例を提供する。
人間と互換性のある表現は、人間によってより類似していると見なされる最も近い隣人を特定する。
論文 参考訳(メタデータ) (2023-03-06T19:04:26Z) - Learning signatures of decision making from many individuals playing the
same game [54.33783158658077]
我々は、個人の「行動スタイル」を符号化する表現を学習する予測フレームワークを設計する。
我々は,3本腕のバンディットタスクを行う1,000人の人間による大規模行動データセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-02-21T21:41:53Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Model-agnostic Fits for Understanding Information Seeking Patterns in
Humans [0.0]
不確実な意思決定タスクでは、人間はそのタスクに関連する情報を探し、統合し、行動する際、特徴的なバイアスを示す。
ここでは,これらのバイアスを総合的に測定・分類した,大規模に収集した先行設計実験のデータを再検討した。
これらのバイアスを集約的に再現するディープラーニングモデルを設計し、個々の行動の変化を捉えます。
論文 参考訳(メタデータ) (2020-12-09T04:34:58Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。