論文の概要: Combining Experts' Causal Judgments
- arxiv url: http://arxiv.org/abs/2005.10180v1
- Date: Wed, 20 May 2020 16:41:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 04:48:45.467682
- Title: Combining Experts' Causal Judgments
- Title(参考訳): 専門家の因果判断を組み合わせる
- Authors: Dalal Alrajeh, Hana Chockler, and Joseph Y. Halpern
- Abstract要約: 我々は,最も効果的な介入を決定するために,専門家の因果判断をどのように組み合わせることができるかを検討する。
2つの因果モデルが両立可能であるという概念を定義し、どのように両立因果モデルをマージできるかを示す。
実際の実例をいくつか紹介する。
- 参考スコア(独自算出の注目度): 15.169168801732505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consider a policymaker who wants to decide which intervention to perform in
order to change a currently undesirable situation. The policymaker has at her
disposal a team of experts, each with their own understanding of the causal
dependencies between different factors contributing to the outcome. The
policymaker has varying degrees of confidence in the experts' opinions. She
wants to combine their opinions in order to decide on the most effective
intervention. We formally define the notion of an effective intervention, and
then consider how experts' causal judgments can be combined in order to
determine the most effective intervention. We define a notion of two causal
models being \emph{compatible}, and show how compatible causal models can be
merged. We then use it as the basis for combining experts' causal judgments. We
also provide a definition of decomposition for causal models to cater for cases
when models are incompatible. We illustrate our approach on a number of
real-life examples.
- Abstract(参考訳): 現在望ましくない状況を変えるために実行すべき介入を決定する政策立案者を考える。
政策立案者は、それぞれが結果に寄与するさまざまな要因間の因果関係を自分自身で理解している専門家のチームを捨てます。
政策立案者は専門家の意見に様々な信頼度を持っている。
彼女は最も効果的な介入を決定するために彼らの意見を組み合わせることを望んでいます。
我々は,効果的な介入の概念を正式に定義し,最も効果的な介入を決定するために専門家の因果判断をどのように組み合わせるかを検討する。
2つの因果モデルを \emph{ compatible} と定義し、どのように両因果モデルをマージできるかを示す。
そして、専門家の因果判断を組み合わせる基礎として利用する。
また、因果モデルに対する分解の定義も提供し、モデルが互換性のない場合に備える。
私たちは多くの実例で私たちのアプローチを説明します。
関連論文リスト
- Characterising Interventions in Causal Games [1.2289361708127877]
因果ゲームは、多エージェント設定で因果クエリを答えられる確率的グラフィカルモデルである。
我々は、因果メカニズムの設計とコミットメントを考慮し、安全なAIシステムの設計への応用を実証する。
論文 参考訳(メタデータ) (2024-06-13T16:55:07Z) - Causal Influence in Federated Edge Inference [34.487472866247586]
本稿では、未ラベルのストリーミングデータを用いて、接続性のある異種エージェントが推論を行う環境について考察する。
不確実性を克服するために、エージェントは、融合センターを通じてローカルな推論を交換することで互いに協力する。
エージェントの関与パターンや核融合センターの方針を反映した様々なシナリオを考察した。
論文 参考訳(メタデータ) (2024-05-02T13:06:50Z) - Subjective Causality [14.440599230549443]
我々は因果モデル(構造方程式モデルとも呼ばれる)を用いて因果性を表現する。
介入の好みを観察することで意思決定者の主観的因果判断を理解・特定できることを示す。
論文 参考訳(メタデータ) (2024-01-17T11:36:38Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Counterfactual Inference of Second Opinions [13.93477033094828]
専門家から第二の意見を推測できる自動意思決定支援システムは、リソースのより効率的な割り当てを促進する可能性がある。
本稿では, 対実的推論の観点から, この種の支援システムの設計について考察する。
合成データと実データの両方の実験により、我々のモデルは、その非因果的データよりも正確に第2の意見を推測することができることを示した。
論文 参考訳(メタデータ) (2022-03-16T14:40:41Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - Learning "What-if" Explanations for Sequential Decision-Making [92.8311073739295]
実世界の意思決定の解釈可能なパラメータ化を実証行動に基づいて構築することが不可欠である。
そこで我々は,「何」の結果に対する嗜好の観点から,報酬関数をモデル化し,専門家による意思決定の学習的説明を提案する。
本研究は,行動の正確かつ解釈可能な記述を回復する上で,実効的逆強化学習手法であるバッチの有効性を強調した。
論文 参考訳(メタデータ) (2020-07-02T14:24:17Z) - Combining the Causal Judgments of Experts with Possibly Different Focus
Areas [15.648061765081259]
多くの実世界の環境では、意思決定者は、効果的な政策を決定するために、異なる専門家が提供した情報を組み合わせる必要がある。
Alrajeh、Chockler、Halpernは、両方のモデルに現れる変数に対して、専門家が因果構造に同意するという意味で互換性のある因果モデルを組み合わせる方法を示した。
論文 参考訳(メタデータ) (2020-05-20T15:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。