論文の概要: Narrowing Action Choices with AI Improves Human Sequential Decisions
- arxiv url: http://arxiv.org/abs/2510.16097v1
- Date: Fri, 17 Oct 2025 18:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.851666
- Title: Narrowing Action Choices with AI Improves Human Sequential Decisions
- Title(参考訳): AIによる行動選択の絞り込みは、人間のシーケンス決定を改善する
- Authors: Eleni Straitouri, Stratis Tsirtsis, Ander Artola Velasco, Manuel Gomez-Rodriguez,
- Abstract要約: 近年の研究では、人間の専門家が理解する必要のない意思決定支援システムの設計が可能であることが示されている。
我々は、AIを使って人間が取ることができるアクションのセットを絞り込み、そのアクションセットから人間にアクションを取るよう依頼するシステムを開発する。
システムによって支援されたゲームをプレイする参加者は、自力でプレイする参加者を30ドル%、システムで使用しているAIエージェントを2ドル%で上回ります。
- 参考スコア(独自算出の注目度): 15.988574580713328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown that, in classification tasks, it is possible to design decision support systems that do not require human experts to understand when to cede agency to a classifier or when to exercise their own agency to achieve complementarity$\unicode{x2014}$experts using these systems make more accurate predictions than those made by the experts or the classifier alone. The key principle underpinning these systems reduces to adaptively controlling the level of human agency, by design. Can we use the same principle to achieve complementarity in sequential decision making tasks? In this paper, we answer this question affirmatively. We develop a decision support system that uses a pre-trained AI agent to narrow down the set of actions a human can take to a subset, and then asks the human to take an action from this action set. Along the way, we also introduce a bandit algorithm that leverages the smoothness properties of the action sets provided by our system to efficiently optimize the level of human agency. To evaluate our decision support system, we conduct a large-scale human subject study ($n = 1{,}600$) where participants play a wildfire mitigation game. We find that participants who play the game supported by our system outperform those who play on their own by $\sim$$30$% and the AI agent used by our system by $>$$2$%, even though the AI agent largely outperforms participants playing without support. We have made available the data gathered in our human subject study as well as an open source implementation of our system at https://github.com/Networks-Learning/narrowing-action-choices .
- Abstract(参考訳): 近年の研究では、分類タスクにおいて、人間の専門家が、分類器に機関を割譲する時期や、それらの機関が補完性を達成するためにいつそれを行使するかを理解する必要のない意思決定支援システムを設計することは、専門家や分類器単独よりも正確な予測を行うことができることが示されている。
これらのシステムを支える重要な原則は、設計によって人間のエージェントのレベルを適応的に制御することを減らすことである。
同じ原則を使って、シーケンシャルな意思決定タスクの相補性を達成できますか?
本稿では,この疑問に肯定的に答える。
我々は、事前訓練されたAIエージェントを使用して、人間がサブセットに取ることができる一連のアクションを絞り込み、そのアクションセットから人間にアクションを取るよう要求する意思決定支援システムを開発する。
また,本システムが提供するアクションセットのスムーズ性を利用して,人間エージェントのレベルを効率的に最適化するバンディットアルゴリズムを導入する。
意思決定支援システムを評価するために、参加者が山火事軽減ゲームをする大規模人事研究(n = 1{,}600$)を行う。
我々のシステムでサポートされたゲームをプレイする参加者は、$\sim$30$%で、私たちのシステムで使われているAIエージェントは$$2$%で、AIエージェントはサポートなしでプレイする参加者よりもはるかに優れています。
我々は、人間の主題研究に集められたデータと、我々のシステムのオープンソース実装をhttps://github.com/Networks-Learning/narrowing-action-choicesで公開しました。
関連論文リスト
- HumanAgencyBench: Scalable Evaluation of Human Agency Support in AI Assistants [5.4831302830611195]
エージェントの哲学的・科学的理論とAIを用いた評価手法を統合することにより、人間エージェントの考え方を発展させる。
我々は、典型的なAIのユースケースに基づいて、6次元の人間エージェントを持つスケーラブルで適応的なベンチマークであるHumanBench(HAB)を開発した。
論文 参考訳(メタデータ) (2025-09-10T11:10:10Z) - Towards Human-AI Complementarity in Matching Tasks [18.703064369029022]
協調的なアプローチをとるデータ駆動型アルゴリズムマッチングシステムを提案する。
Comatchは最も自信のある決定のみを選択し、残りの決定を人間の意思決定者に委ねる。
その結果, マッチングによって生成されるマッチング結果が, ヒトの参加者, あるいはアルゴリズムのマッチングによって生成したマッチング結果よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-08-18T18:02:45Z) - Human aversion? Do AI Agents Judge Identity More Harshly Than Performance [0.06554326244334868]
我々は,大規模言語モデルに基づくAIエージェントがどのように人間の入力を評価し,統合するかを検討する。
AIシステムは人間のアドバイスを体系的に減らし、アルゴリズムの誤りよりも人間の誤りを厳しく罰する。
論文 参考訳(メタデータ) (2025-03-31T02:05:27Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Mixed-Initiative Human-Robot Teaming under Suboptimality with Online Bayesian Adaptation [0.6591036379613505]
我々は,最適人-エージェントチームの性能向上のための計算モデルと最適化手法を開発した。
我々は,ロボットが逐次意思決定ゲームにおいて,その支援に従おうとする人々の意思を推測できるオンラインベイズアプローチを採用する。
ユーザの好みやチームのパフォーマンスは,ロボットの介入スタイルによって明らかに異なります。
論文 参考訳(メタデータ) (2024-03-24T14:38:18Z) - REBEL: Reward Regularization-Based Approach for Robotic Reinforcement Learning from Human Feedback [61.54791065013767]
報酬関数と人間の嗜好の相違は、現実世界で破滅的な結果をもたらす可能性がある。
近年の手法は、人間の嗜好から報酬関数を学習することで、不適応を緩和することを目的としている。
本稿では,ロボットRLHFフレームワークにおける報酬正規化の新たな概念を提案する。
論文 参考訳(メタデータ) (2023-12-22T04:56:37Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Multi-Principal Assistance Games [11.85513759444069]
社会的選択論や投票理論における不合理性定理はそのようなゲームに適用できる。
我々は特に、人間がまず腕の好みを示すために行動するバンディットの見習いゲームを分析する。
本稿では,選好推論と社会福祉最適化を組み合わせるために,システムの共有制御を用いた社会的選択手法を提案する。
論文 参考訳(メタデータ) (2020-07-19T00:23:25Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。