論文の概要: AI-Assisted Decision Making with Human Learning
- arxiv url: http://arxiv.org/abs/2502.13062v1
- Date: Tue, 18 Feb 2025 17:08:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:05:52.305602
- Title: AI-Assisted Decision Making with Human Learning
- Title(参考訳): ヒューマンラーニングによるAIによる意思決定
- Authors: Gali Noti, Kate Donahue, Jon Kleinberg, Sigal Oren,
- Abstract要約: 多くの場合、アルゴリズムの優れた性能にもかかわらず、最終的な決定は人間の手に委ねられている。
本稿では,人間がアルゴリズムと繰り返し対話することで学習する,AIによる意思決定設定について検討する。
我々は、アルゴリズムのモデルと人間のモデルとの相違が根本的なトレードオフを生み出すことを観察する。
- 参考スコア(独自算出の注目度): 8.598431584462944
- License:
- Abstract: AI systems increasingly support human decision-making. In many cases, despite the algorithm's superior performance, the final decision remains in human hands. For example, an AI may assist doctors in determining which diagnostic tests to run, but the doctor ultimately makes the diagnosis. This paper studies such AI-assisted decision-making settings, where the human learns through repeated interactions with the algorithm. In our framework, the algorithm -- designed to maximize decision accuracy according to its own model -- determines which features the human can consider. The human then makes a prediction based on their own less accurate model. We observe that the discrepancy between the algorithm's model and the human's model creates a fundamental tradeoff. Should the algorithm prioritize recommending more informative features, encouraging the human to recognize their importance, even if it results in less accurate predictions in the short term until learning occurs? Or is it preferable to forgo educating the human and instead select features that align more closely with their existing understanding, minimizing the immediate cost of learning? This tradeoff is shaped by the algorithm's time-discounted objective and the human's learning ability. Our results show that optimal feature selection has a surprisingly clean combinatorial characterization, reducible to a stationary sequence of feature subsets that is tractable to compute. As the algorithm becomes more "patient" or the human's learning improves, the algorithm increasingly selects more informative features, enhancing both prediction accuracy and the human's understanding. Notably, early investment in learning leads to the selection of more informative features than a later investment. We complement our analysis by showing that the impact of errors in the algorithm's knowledge is limited as it does not make the prediction directly.
- Abstract(参考訳): AIシステムは、人間の意思決定をますます支援している。
多くの場合、アルゴリズムの優れた性能にもかかわらず、最終的な決定は人間の手に委ねられている。
例えば、AIは医師がどの診断テストを実行するかを判断するのを手助けするが、医師は最終的に診断を行う。
本稿では,人間がアルゴリズムと繰り返し対話することで学習する,AIによる意思決定設定について検討する。
我々のフレームワークでは、決定精度を自身のモデルで最大化するために設計されたアルゴリズムが、人間が考慮できる特徴を決定する。
そして人間は、より正確でないモデルに基づいて予測を行う。
我々は、アルゴリズムのモデルと人間のモデルとの相違が根本的なトレードオフを生み出すことを観察する。
アルゴリズムはより情報的な特徴を推奨し、学習が終わるまで短期的に正確でない予測を下しても、人間にその重要性を認識するよう推奨すべきだろうか?
あるいは、人間を教育し、その代わりに、学習の即時コストを最小限に抑えて、既存の理解とより緊密に連携する機能を選択することが望ましいのか?
このトレードオフは、アルゴリズムの時間を割いた目的と人間の学習能力によって形成される。
その結果、最適特徴選択は驚くほどクリーンな組合せ特性を持ち、計算可能な特徴部分集合の定常列に還元可能であることがわかった。
アルゴリズムがより"患者"になったり、人間の学習が向上するにつれて、アルゴリズムはますます情報的特徴を選択し、予測精度と人間の理解の両方を高める。
特に、早期の学習への投資は、後の投資よりも情報的な特徴の選択につながる。
我々は,アルゴリズムの知識における誤りの影響が,直接予測しないため限定的であることを示すことによって,解析を補完する。
関連論文リスト
- Integrating Expert Judgment and Algorithmic Decision Making: An Indistinguishability Framework [12.967730957018688]
予測と意思決定タスクにおける人間とAIの協調のための新しい枠組みを導入する。
我々の手法は人間の判断を利用して、アルゴリズム的に区別できない入力を区別する。
論文 参考訳(メタデータ) (2024-10-11T13:03:53Z) - Does AI help humans make better decisions? A statistical evaluation framework for experimental and observational studies [0.43981305860983716]
我々は、人間とAI、AIの3つの代替意思決定システムのパフォーマンスを比較する方法を示す。
リスクアセスメントの勧告は、現金保釈を課す裁判官の決定の分類精度を向上しないことがわかった。
論文 参考訳(メタデータ) (2024-03-18T01:04:52Z) - Human Expertise in Algorithmic Prediction [16.104330706951004]
アルゴリズムの予測に人間の専門知識を取り入れるための新しい枠組みを導入する。
我々のアプローチは、人間の判断を利用して、アルゴリズム的に区別できない入力を区別する。
論文 参考訳(メタデータ) (2024-02-01T17:23:54Z) - Auditing for Human Expertise [12.967730957018688]
我々は、この問題を自然仮説テストとして適用できる統計的枠組みを開発する。
本稿では,専門家の予測が興味ある結果から統計的に独立しているかどうかを判定する簡単な手順を提案する。
我々のテストの拒絶は、人間の専門家が利用可能なデータに基づいてトレーニングされたアルゴリズムに価値を付加する可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-02T16:15:24Z) - Refining neural network predictions using background knowledge [68.35246878394702]
学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
論文 参考訳(メタデータ) (2022-06-10T10:17:59Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - The Information Geometry of Unsupervised Reinforcement Learning [133.20816939521941]
教師なしスキル発見(英語: Unsupervised skill discovery)とは、報酬関数にアクセスせずに一連のポリシーを学ぶアルゴリズムのクラスである。
教師なしのスキル発見アルゴリズムは、あらゆる報酬関数に最適なスキルを学習しないことを示す。
論文 参考訳(メタデータ) (2021-10-06T13:08:36Z) - Double Coverage with Machine-Learned Advice [100.23487145400833]
オンラインの基本的な$k$-serverの問題を学習強化環境で研究する。
我々のアルゴリズムは任意の k に対してほぼ最適の一貫性-破壊性トレードオフを達成することを示す。
論文 参考訳(メタデータ) (2021-03-02T11:04:33Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - The Future AI in Healthcare: A Tsunami of False Alarms or a Product of
Experts? [3.8244083622687306]
これらの出版物や商用アルゴリズムのほとんどは、いくつかの根本的な誤りを犯している、と私は主張する。
多くのアルゴリズムをまとめて投票し、全体的なパフォーマンス、相互独立性、コンテキストを定義する機能のセットを重み付けする必要があります。
論文 参考訳(メタデータ) (2020-07-20T21:56:36Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。