論文の概要: A General Framework for Distributed Inference with Uncertain Models
- arxiv url: http://arxiv.org/abs/2011.10669v1
- Date: Fri, 20 Nov 2020 22:17:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 06:24:01.425053
- Title: A General Framework for Distributed Inference with Uncertain Models
- Title(参考訳): 不確かさモデルを用いた分散推論のための一般的なフレームワーク
- Authors: James Z. Hare, Cesar A. Uribe, Lance Kaplan, Ali Jadbabaie
- Abstract要約: 異種エージェントのネットワークを用いた分散分類の問題について検討する。
我々は、エージェントの不確実性を可能性に組み込む不確実性モデルの概念に基づいて構築する。
- 参考スコア(独自算出の注目度): 14.8884251609335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of distributed classification with a network
of heterogeneous agents. The agents seek to jointly identify the underlying
target class that best describes a sequence of observations. The problem is
first abstracted to a hypothesis-testing framework, where we assume that the
agents seek to agree on the hypothesis (target class) that best matches the
distribution of observations. Non-Bayesian social learning theory provides a
framework that solves this problem in an efficient manner by allowing the
agents to sequentially communicate and update their beliefs for each hypothesis
over the network. Most existing approaches assume that agents have access to
exact statistical models for each hypothesis. However, in many practical
applications, agents learn the likelihood models based on limited data, which
induces uncertainty in the likelihood function parameters. In this work, we
build upon the concept of uncertain models to incorporate the agents'
uncertainty in the likelihoods by identifying a broad set of parametric
distribution that allows the agents' beliefs to converge to the same result as
a centralized approach. Furthermore, we empirically explore extensions to
non-parametric models to provide a generalized framework of uncertain models in
non-Bayesian social learning.
- Abstract(参考訳): 本稿では,異種エージェントのネットワークを用いた分散分類の問題について検討する。
エージェントは、観測のシーケンスを最もよく記述するターゲットクラスを共同で識別しようとする。
この問題はまず仮説テストフレームワークに抽象化され、エージェントが観測の分布に最もよく一致する仮説(ターゲットクラス)に同意しようとすると仮定する。
非ベイズ的社会学習理論は、エージェントがネットワーク上の仮説ごとに順次コミュニケーションし、彼らの信念を更新することによって、効率的な方法でこの問題を解決する枠組みを提供する。
既存のアプローチの多くは、エージェントが仮説ごとに正確な統計モデルにアクセスできると仮定している。
しかし、多くの実践的応用において、エージェントは限られたデータに基づいて確率モデルを学習し、確率関数パラメータの不確実性を引き起こす。
本研究では,エージェントの信念を中央集権的アプローチと同じ結果に収束させることを可能にするパラメトリック分布の幅広い集合を特定することにより,エージェントの不確実性を可能性に組み込む不確実性モデルの概念を構築する。
さらに,非パラメトリックモデルの拡張を実証的に検討し,非ベイズ型社会学習における不確定モデルの一般化フレームワークを提供する。
関連論文リスト
- Causal modelling without introducing counterfactuals or abstract distributions [7.09435109588801]
本稿では,すべての仮定が検証可能な有限集団に対する因果推論を治療学的予測として解釈する。
この新しい枠組みは、因果関係のモデル依存性と、統計的および科学的推論の違いを強調している。
論文 参考訳(メタデータ) (2024-07-24T16:07:57Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - A Survey on Evidential Deep Learning For Single-Pass Uncertainty
Estimation [0.0]
情報深層学習(Evidential Deep Learning): 馴染みのないデータに対して、彼らは“知らないこと”を認め、以前の信念に戻る。
この調査は、Evidential Deep Learningという概念に基づいた、別のモデルのクラスを読者に親しみやすくすることを目的としている。
論文 参考訳(メタデータ) (2021-10-06T20:13:57Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z) - Achieving Equalized Odds by Resampling Sensitive Attributes [13.114114427206678]
等価性の概念をほぼ満足する予測モデルを学習するためのフレキシブルなフレームワークを提案する。
この微分可能な関数は、モデルパラメータを等化奇数に向けて駆動するペナルティとして使用される。
本研究は,予測規則が本性質に反するか否かを検出するための公式な仮説テストを開発する。
論文 参考訳(メタデータ) (2020-06-08T00:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。