論文の概要: A Framework for Studying AI Agent Behavior: Evidence from Consumer Choice Experiments
- arxiv url: http://arxiv.org/abs/2509.25609v1
- Date: Tue, 30 Sep 2025 00:05:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.370306
- Title: A Framework for Studying AI Agent Behavior: Evidence from Consumer Choice Experiments
- Title(参考訳): AIエージェントの行動研究のためのフレームワーク:消費者選択実験によるエビデンス
- Authors: Manuel Cherep, Chengtian Ma, Abigail Xu, Maya Shaked, Pattie Maes, Nikhil Singh,
- Abstract要約: 本稿では,オプション属性と説得的手がかりの制御によるエージェント選択の探索フレームワークを提案する。
我々はエージェントの決定が予測可能かつ実質的に変化していることを発見し、エージェントが強い偏見を持つ選択者であることを明らかにした。
この感受性はリスクと機会の両方を明らかにしている:リスク、エージェントの消費者は人間の偏見を継承し増幅する可能性がある;機会、消費者の選択はAIエージェントの行動科学に強力なテストベッドを提供するからだ。
- 参考スコア(独自算出の注目度): 24.983925189624816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Environments built for people are increasingly operated by a new class of economic actors: LLM-powered software agents making decisions on our behalf. These decisions range from our purchases to travel plans to medical treatment selection. Current evaluations of these agents largely focus on task competence, but we argue for a deeper assessment: how these agents choose when faced with realistic decisions. We introduce ABxLab, a framework for systematically probing agentic choice through controlled manipulations of option attributes and persuasive cues. We apply this to a realistic web-based shopping environment, where we vary prices, ratings, and psychological nudges, all of which are factors long known to shape human choice. We find that agent decisions shift predictably and substantially in response, revealing that agents are strongly biased choosers even without being subject to the cognitive constraints that shape human biases. This susceptibility reveals both risk and opportunity: risk, because agentic consumers may inherit and amplify human biases; opportunity, because consumer choice provides a powerful testbed for a behavioral science of AI agents, just as it has for the study of human behavior. We release our framework as an open benchmark for rigorous, scalable evaluation of agent decision-making.
- Abstract(参考訳): 人々のために構築された環境は、新たなタイプの経済アクターによって、ますます運営されている。
これらの決定は、購入から旅行計画、治療選択までさまざまです。
これらのエージェントの現在の評価は、主にタスク能力に焦点を当てているが、我々は、これらのエージェントが現実的な決定に直面した場合にどのように選択するかという、より深い評価を主張する。
ABxLabは,オプション属性や説得的手がかりの制御操作を通じて,エージェント選択を体系的に探索するフレームワークである。
我々はこれを現実的なウェブベースのショッピング環境に適用し、価格、レーティング、心理的に悪影響が及ぶ。
エージェント決定は,人間のバイアスを形成する認知的制約に従わなくても,エージェントが強いバイアスを受けた選択者であることが判明した。
この感受性はリスクと機会の両方を明らかにしている:リスク、エージェントの消費者は人間の偏見を継承し増幅する可能性がある;機会、消費者の選択は人間の行動研究と同様に、AIエージェントの行動科学のための強力なテストベッドを提供するからだ。
エージェント意思決定の厳格でスケーラブルな評価のためのオープンベンチマークとして、私たちのフレームワークをリリースします。
関連論文リスト
- Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - ADESSE: Advice Explanations in Complex Repeated Decision-Making Environments [14.105935964906976]
この研究は、インテリジェントなエージェントが人間の意思決定者にアドバイスを提供するような問題設定について考察する。
我々は,人的信頼と意思決定を改善するためのアドバイザーエージェントの説明を生成するために,ADESSEというアプローチを開発した。
論文 参考訳(メタデータ) (2024-05-31T08:59:20Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Causal Strategic Learning with Competitive Selection [10.237954203296187]
複数の意思決定者の下で因果戦略学習におけるエージェント選択の問題について検討する。
最適な選択規則は、最適なエージェントを選択することと、エージェントの改善を最大化するためのインセンティブを提供することの間のトレードオフであることを示す。
我々は、真の因果パラメータを回復するために、すべての意思決定者がまとめて採用しなければならない協調プロトコルを提供する。
論文 参考訳(メタデータ) (2023-08-30T18:43:11Z) - Parametrically Retargetable Decision-Makers Tend To Seek Power [91.93765604105025]
完全に観察可能な環境では、ほとんどの報酬関数は、オプションを開いて生き続けることで力を求める最適なポリシーを持つ。
我々は、最適からランダムまで、AI意思決定のモデルから、学習と環境との対話によって得られる選択まで、さまざまなモデルを検討します。
定性的に異なる意思決定手順がエージェントに力を求めるインセンティブを与えることを示す。
論文 参考訳(メタデータ) (2022-06-27T17:39:23Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Hiding Behind Machines: When Blame Is Shifted to Artificial Agents [0.0]
この記事は、我々の代理として決定するエージェントの責任に焦点を当てます。
エージェントが人的であり、人間ではない場合に、エージェントによる道徳的結果の生成が、体系的に異なる判断を下すかどうかを検討する。
論文 参考訳(メタデータ) (2021-01-27T14:50:02Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。