論文の概要: A Bandit Model for Human-Machine Decision Making with Private
Information and Opacity
- arxiv url: http://arxiv.org/abs/2007.04800v3
- Date: Tue, 3 May 2022 17:27:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:31:33.287136
- Title: A Bandit Model for Human-Machine Decision Making with Private
Information and Opacity
- Title(参考訳): プライベート情報とオフパシティを用いた人手決定のためのバンドモデル
- Authors: Sebastian Bordt, Ulrike von Luxburg
- Abstract要約: 一方のプレイヤーが機械であり,他方のプレイヤーが人間である2人のプレイヤーの学習問題を示す。
下限は、不透明な意思決定者に対して最適に助言する最悪の難易度を定量化する。
上界は、単純な調整戦略が極端に最適であることを示している。
- 参考スコア(独自算出の注目度): 16.665883787432858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Applications of machine learning inform human decision makers in a broad
range of tasks. The resulting problem is usually formulated in terms of a
single decision maker. We argue that it should rather be described as a
two-player learning problem where one player is the machine and the other the
human. While both players try to optimize the final decision, the setup is
often characterized by (1) the presence of private information and (2) opacity,
that is imperfect understanding between the decision makers. We prove that both
properties can complicate decision making considerably. A lower bound
quantifies the worst-case hardness of optimally advising a decision maker who
is opaque or has access to private information. An upper bound shows that a
simple coordination strategy is nearly minimax optimal. More efficient learning
is possible under certain assumptions on the problem, for example that both
players learn to take actions independently. Such assumptions are implicit in
existing literature, for example in medical applications of machine learning,
but have not been described or justified theoretically.
- Abstract(参考訳): 機械学習の応用は、人間の意思決定者に幅広いタスクを知らせる。
結果の問題は、通常は単一の意思決定者によって定式化される。
1人のプレイヤーがマシンであり、もう1人が人間である2人のプレイヤーが学習する問題として表現すべきである。
両プレイヤーは最終決定を最適化しようとするが、(1)個人情報の存在と(2)不透明さ、すなわち意思決定者間の不完全な理解が特徴であることが多い。
どちらの性質も意思決定をかなり複雑にすることを証明する。
下限は、不透明または私的情報へのアクセスを有する意思決定者に対して最適に助言する最悪の場合の硬さを定量化する。
上界は単純な協調戦略がほとんどミニマックス最適であることを示す。
より効率的な学習は、例えば両方のプレイヤーが独立して行動を取ることを学ぶなど、特定の仮定の下で可能となる。
このような仮定は、例えば機械学習の医学的応用において、既存の文献では暗黙的であるが、理論上は説明されていない。
関連論文リスト
- Capturing the Complexity of Human Strategic Decision-Making with Machine Learning [4.308322597847064]
我々は,2プレイヤーマトリックスゲームにおける初期プレイの文脈において,戦略的意思決定の現在までの最大の研究を行う。
これらのデータに基づいてトレーニングされたディープニューラルネットワークは、戦略行動の理論を先導するよりも、人々の選択を予測できることを示す。
論文 参考訳(メタデータ) (2024-08-15T00:39:42Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Fairness Implications of Heterogeneous Treatment Effect Estimation with
Machine Learning Methods in Policy-making [0.0]
予測機械学習の標準的なAIフェアネスアプローチは、すべての因果機械学習アプリケーションに適していないと我々は主張する。
政策決定は、通常、因果的機械学習モデルが間接的な力しか持たないような共同決定である、と我々は主張する。
論文 参考訳(メタデータ) (2023-09-02T03:06:14Z) - Learning to Guide Human Experts via Personalized Large Language Models [23.7625973884849]
遅延の学習において、予測者はリスクのある決定を識別し、それを人間の専門家に宣言する。
ガイドを学ぶ際には、機械は意思決定をガイドするのに有用なガイダンスを提供し、人間は完全に決定を下す責任がある。
論文 参考訳(メタデータ) (2023-08-11T09:36:33Z) - Assisting Human Decisions in Document Matching [52.79491990823573]
我々は,意思決定者のパフォーマンスを向上する支援情報の種類を評価するためのプロキシマッチングタスクを考案した。
ブラックボックスモデルによる説明を提供することで,マッチング作業におけるユーザの精度が低下することが判明した。
一方,タスク固有のデシラタに密接に対応するように設計されたカスタムメソッドは,ユーザのパフォーマンス向上に有効であることが判明した。
論文 参考訳(メタデータ) (2023-02-16T17:45:20Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - The Paradox of Choice: Using Attention in Hierarchical Reinforcement
Learning [59.777127897688594]
サブゴールオプションのさらなる学習に使用できる、オンラインでモデルフリーなアルゴリズムを提案する。
訓練データ収集におけるハード・ソフト・アテンションの役割,長期的タスクにおける抽象的価値学習,および多数の選択肢に対する対処について検討する。
論文 参考訳(メタデータ) (2022-01-24T13:18:02Z) - Learning the Preferences of Uncertain Humans with Inverse Decision
Theory [10.926992035470372]
我々は,不確実性の下で連続的でない二項決定を行う,人間を観察する枠組みである逆決定理論(IDT)の設定について検討する。
IDTでは、人間の好みは損失関数を通じて伝達され、異なるタイプの誤り間のトレードオフを表現する。
決定問題がより不確実な場合には、実際に好みを特定するのが簡単であることを示す。
論文 参考訳(メタデータ) (2021-06-19T00:11:13Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。