論文の概要: Counterfactual Inference of Second Opinions
- arxiv url: http://arxiv.org/abs/2203.08653v1
- Date: Wed, 16 Mar 2022 14:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 18:51:20.370828
- Title: Counterfactual Inference of Second Opinions
- Title(参考訳): 第二意見の因果推論
- Authors: Nina Corvelo Benz and Manuel Gomez Rodriguez
- Abstract要約: 専門家から第二の意見を推測できる自動意思決定支援システムは、リソースのより効率的な割り当てを促進する可能性がある。
本稿では, 対実的推論の観点から, この種の支援システムの設計について考察する。
合成データと実データの両方の実験により、我々のモデルは、その非因果的データよりも正確に第2の意見を推測することができることを示した。
- 参考スコア(独自算出の注目度): 13.93477033094828
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated decision support systems that are able to infer second opinions
from experts can potentially facilitate a more efficient allocation of
resources; they can help decide when and from whom to seek a second opinion. In
this paper, we look at the design of this type of support systems from the
perspective of counterfactual inference. We focus on a multiclass
classification setting and first show that, if experts make predictions on
their own, the underlying causal mechanism generating their predictions needs
to satisfy a desirable set invariant property. Further, we show that, for any
causal mechanism satisfying this property, there exists an equivalent mechanism
where the predictions by each expert are generated by independent
sub-mechanisms governed by a common noise. This motivates the design of a set
invariant Gumbel-Max structural causal model where the structure of the noise
governing the sub-mechanisms underpinning the model depends on an intuitive
notion of similarity between experts which can be estimated from data.
Experiments on both synthetic and real data show that our model can be used to
infer second opinions more accurately than its non-causal counterpart.
- Abstract(参考訳): 専門家から第2の意見を推測できる自動意思決定支援システムは、リソースのより効率的な配分を促進する可能性がある。
本稿では, 対実的推論の観点から, この種の支援システムの設計について考察する。
我々は,マルチクラス分類の設定に注目し,専門家が自身で予測を行う場合,それらの予測を生成する基礎となる因果メカニズムが望ましいセット不変性を満たす必要があることを示す。
さらに, この特性を満たす因果機構には, それぞれの専門家による予測が, 共通のノイズによって支配される独立したサブメカニズムによって生成される, 等価なメカニズムが存在することを示す。
このことは、Gumbel-Max構造因果モデルの設計を動機付け、モデルを支えるサブメカニズムを規定するノイズの構造は、データから推定できる専門家間の類似性の直感的な概念に依存する。
合成データと実データの両方で実験した結果、我々のモデルは第二の意見をより正確に推測できることがわかった。
関連論文リスト
- Counterfactual Generation from Language Models [64.55296662926919]
対実的推論が介入と概念的に異なることを示す。
そこで本研究では,真の文字列反事実を生成するためのフレームワークを提案する。
我々の実験は、このアプローチが有意義な反事実を生み出すことを示した。
論文 参考訳(メタデータ) (2024-11-11T17:57:30Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Invariant Causal Set Covering Machines [64.86459157191346]
決定木のようなルールベースのモデルは、解釈可能な性質のために実践者にアピールする。
しかし、そのようなモデルを生成する学習アルゴリズムは、しばしば刺激的な関連に弱いため、因果関係の洞察を抽出することが保証されていない。
Invariant Causal Set Covering Machines は、古典的集合被覆マシンアルゴリズムの拡張であり、二値ルールの結合/分離を可能とし、スプリアス関係を確実に回避する。
論文 参考訳(メタデータ) (2023-06-07T20:52:01Z) - Designing Decision Support Systems Using Counterfactual Prediction Sets [15.121082690769525]
分類タスクの意思決定支援システムは主に、基底真理ラベルの価値を予測するために設計されている。
本稿では,オンライン学習の観点から,このようなシステムの設計を再考する。
私たちは専門家のモデルを必要としない方法論を開発しています。
論文 参考訳(メタデータ) (2023-06-06T18:00:09Z) - Differentially Private Counterfactuals via Functional Mechanism [47.606474009932825]
本稿では,デプロイされたモデルや説明セットに触れることなく,差分的プライベート・カウンティファクト(DPC)を生成する新しいフレームワークを提案する。
特に、ノイズの多いクラスプロトタイプを構築するための機能機構を備えたオートエンコーダを訓練し、次に潜伏プロトタイプからDPCを導出する。
論文 参考訳(メタデータ) (2022-08-04T20:31:22Z) - Properties from Mechanisms: An Equivariance Perspective on Identifiable
Representation Learning [79.4957965474334]
教師なし表現学習の主な目標は、データ生成プロセスが潜在プロパティを回復するために「反転」することである。
この論文は「進化を支配するメカニズムの知識を活用して潜伏特性を識別するのか?」と問う。
我々は、可能なメカニズムの集合に関する知識が異なるため、不特定性の原因の完全な特徴づけを提供する。
論文 参考訳(メタデータ) (2021-10-29T14:04:08Z) - Understanding Interlocking Dynamics of Cooperative Rationalization [90.6863969334526]
選択的合理化(Selective rationalization)は、ニューラルネットワークの出力を予測するのに十分な入力の小さなサブセットを見つけることによって、複雑なニューラルネットワークの予測を説明する。
このような合理化パラダイムでは,モデルインターロックという大きな問題が浮かび上がっている。
A2Rと呼ばれる新しい合理化フレームワークを提案し、アーキテクチャに第3のコンポーネントを導入し、選択とは対照的にソフトアテンションによって駆動される予測器を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:39:18Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Model-Based Counterfactual Synthesizer for Interpretation [40.01787107375103]
機械学習モデルを解釈するためのモデルベース対実合成器(MCS)フレームワークを提案する。
まずモデルに基づく逆ファクト過程を分析し、条件付き生成逆数ネット(CGAN)を用いてベースシンセサイザーを構築する。
それらの希少なクエリに対する反ファクト宇宙をよりよく近似するために,MCSフレームワークのトレーニングを行うために,傘サンプリング手法を新たに採用した。
論文 参考訳(メタデータ) (2021-06-16T17:09:57Z) - A theory of independent mechanisms for extrapolation in generative
models [20.794692397859755]
生成モデルは複雑な経験的データをエミュレートするために訓練することができるが、以前は観測されていなかった環境の文脈で予測するのに役立つだろうか?
我々は、メカニズムの独立原理に基づいて、より弱い識別可能性の形式を定義することによって、この課題に対処する理論的枠組みを開発する。
おもちゃの例では、古典的な勾配降下がモデルの外挿能力を阻害し、トレーニング中にメカニズムの独立性を明示的に実施すべきであることを示唆している。
論文 参考訳(メタデータ) (2020-04-01T01:01:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。