論文の概要: Purely Bayesian counterfactuals versus Newcomb's paradox
- arxiv url: http://arxiv.org/abs/2008.04256v1
- Date: Mon, 10 Aug 2020 16:56:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 23:12:33.356785
- Title: Purely Bayesian counterfactuals versus Newcomb's paradox
- Title(参考訳): 純粋ベイズ的反事実とニューコームのパラドックス
- Authors: L\^e Nguy\^en Hoang
- Abstract要約: エピステマティクス・システムは、その存在が事実的に悪い判断を下すことを必ず期待するニューコームのような問題の存在を証明します。
エンティティをよりよく理解し、設計するためには、エンティティの認識、決定、データ収集、報酬、メンテナンスシステムを明確に分離することが有用です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a careful separation between an entity's epistemic system
and their decision system. Crucially, Bayesian counterfactuals are estimated by
the epistemic system; not by the decision system. Based on this remark, I prove
the existence of Newcomb-like problems for which an epistemic system
necessarily expects the entity to make a counterfactually bad decision. I then
address (a slight generalization of) Newcomb's paradox. I solve the specific
case where the player believes that the predictor applies Bayes rule with a
supset of all the data available to the player. I prove that the counterfactual
optimality of the 1-Box strategy depends on the player's prior on the
predictor's additional data. If these additional data are not expected to
reduce sufficiently the predictor's uncertainty on the player's decision, then
the player's epistemic system will counterfactually prefer to 2-Box. But if the
predictor's data is believed to make them quasi-omniscient, then 1-Box will be
counterfactually preferred. Implications of the analysis are then discussed.
More generally, I argue that, to better understand or design an entity, it is
useful to clearly separate the entity's epistemic, decision, but also data
collection, reward and maintenance systems, whether the entity is human,
algorithmic or institutional.
- Abstract(参考訳): 本稿では,エンティティの認識システムと決定システムとの注意深い分離を提案する。
重要なことに、ベイズ反事実は、決定体系ではなくて、てんかんシステムによって推定される。
この発言に基づき、認識システムが実体が反事実的に悪い決定を下すことを必ずしも期待するニューコンプのような問題が存在することを証明します。
それから、newcombのパラドックスを(少し一般化して)取り上げます。
私は、プレイヤーが予測者がプレイヤーが利用可能なすべてのデータにベイズルールを適用すると信じている特定のケースを解決します。
1-Box戦略の対実的最適性は、予測器の追加データに対するプレイヤーの先行性に依存することを実証する。
これらの追加データがプレイヤーの決定に対する予測者の不確かさを十分に減らすと期待されない場合、プレイヤーの認識システムは事実上2-boxよりも好まれる。
しかし、もし予測器のデータが準正当であると信じられれば、1-Boxは偽造的に好まれる。
分析の意味が議論される。
より一般に、私は、エンティティをよりよく理解または設計するには、エンティティが人間であるか、アルゴリズムであるか、あるいは機関であるかに関わらず、エンティティの認識、決定、データ収集、報酬、メンテナンスシステムを明確に分離するのに役立つと論じています。
関連論文リスト
- Imperfect-Recall Games: Equilibrium Concepts and Their Complexity [74.01381499760288]
エージェントが以前保持していた情報を忘れたとき、不完全なリコールの下で最適な意思決定を行う。
不完全なリコールを伴う広範囲形式のゲームフレームワークにおいて、マルチプレイヤー設定における平衡を求める際の計算複雑性を解析する。
論文 参考訳(メタデータ) (2024-06-23T00:27:28Z) - Controlling Counterfactual Harm in Decision Support Systems Based on Prediction Sets [14.478233576808876]
予測セットに基づく意思決定支援システムでは、正確性と因果的害との間にトレードオフがある。
自然で検証不能な単調な仮定の下では、システム自体が人間による予測を用いて、どれだけの頻度で害を引き起こす可能性があるかを推定することができる。
また, 仮説が弱く, 検証可能な場合, 人間による予測のみを用いて, システムが再び危害を引き起こす頻度を制限できることも示している。
論文 参考訳(メタデータ) (2024-06-10T18:00:00Z) - Designing Decision Support Systems Using Counterfactual Prediction Sets [15.121082690769525]
分類タスクの意思決定支援システムは主に、基底真理ラベルの価値を予測するために設計されている。
本稿では,オンライン学習の観点から,このようなシステムの設計を再考する。
私たちは専門家のモデルを必要としない方法論を開発しています。
論文 参考訳(メタデータ) (2023-06-06T18:00:09Z) - Abstracting Imperfect Information Away from Two-Player Zero-Sum Games [85.27865680662973]
Nayyar et al. (2013) は、プレイヤーがプレイ中にポリシーを公に発表することで、不完全な情報を共通のペイオフゲームから抽象化できることを示した。
この研究は、ある正規化された平衡が上記の非対応問題を持たないことを示している。
これらの正規化された平衡はナッシュ平衡に任意に近づくことができるので、この結果は2つのプレイヤーゼロサムゲームを解くための新たな視点への扉を開く。
論文 参考訳(メタデータ) (2023-01-22T16:54:06Z) - Conflict-free joint sampling for preference satisfaction through quantum
interference [0.0]
最適共同意思決定法には2つの問題がある。
まず、選択数が増えるにつれて、最適な関節選択確率行列を計算する計算コストが爆発する。
第二に、最適な関節選択確率行列を導出するためには、全てのプレイヤーが確率的嗜好を開示しなければならない。
論文 参考訳(メタデータ) (2022-08-05T10:38:17Z) - Online Optimization with Untrusted Predictions [7.895232155155041]
本稿では, オンライン最適化の課題について検討し, 意思決定者は, ラウンドごと, 非競争的打撃コスト, ラウンド間切替コストの合計に対して, 一般的な計量空間内の点を選択する必要がある。
本稿では,新しいアルゴリズムであるAdaptive Online Switching (AOS)を提案し,予測が完全であれば$tildecalO(alphadelta)$が不正確であっても$tildecalO(alphadelta)$であることを示す。
論文 参考訳(メタデータ) (2022-02-07T21:08:02Z) - A Variational Inequality Approach to Bayesian Regression Games [90.79402153164587]
我々は凸類の一意性の存在を証明し、それを滑らかなコスト関数に一般化する。
必然的に強い収束で解くための2つの簡単なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-03-24T22:33:11Z) - Bandit Linear Optimization for Sequential Decision Making and
Extensive-Form Games [102.23975166536326]
tree-form sequential decision making (tfsdm) は、エージェントと潜在的に敵対的な環境の間のツリー形式の相互作用をモデル化することで、古典的なワンショット意思決定を拡張する。
これは、各プレイヤーが幅広い形式のゲームで直面するオンライン意思決定問題、およびマルコフ決定プロセス、およびエージェントが観測された履歴を条件とする部分観察可能なマルコフ決定プロセスをキャプチャする。
本稿では, (i) 線形時間損失と (ii) $o(sqrtt)$ cumulative regret の両方を提供する拡張dmのバンディット線形最適化問題に対する最初のアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T05:00:13Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z) - Signaling in Bayesian Network Congestion Games: the Subtle Power of
Symmetry [66.82463322411614]
本論文は, 最適遠点透過型シグナリング方式の問題点に焦点をあて, 対称性がその解法において重要な性質であることを示す。
プレイヤーが対称でアフィンコスト関数を持つとき,最適なエクアント説得スキームが計算可能であることを示す。
論文 参考訳(メタデータ) (2020-02-12T19:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。