論文の概要: Toward a Taxonomy of Trust for Probabilistic Machine Learning
- arxiv url: http://arxiv.org/abs/2112.03270v1
- Date: Sun, 5 Dec 2021 21:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 16:06:11.361251
- Title: Toward a Taxonomy of Trust for Probabilistic Machine Learning
- Title(参考訳): 確率的機械学習のための信頼の分類に向けて
- Authors: Tamara Broderick, Andrew Gelman, Rachael Meager, Anna L. Smith, Tian
Zheng
- Abstract要約: 分析における信頼が崩壊する可能性のある分類法を開発する。
信頼が各ステップでどのように失敗するかを詳述し、私たちの分類を2つのケーススタディで説明します。
- 参考スコア(独自算出の注目度): 17.14411512228185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Probabilistic machine learning increasingly informs critical decisions in
medicine, economics, politics, and beyond. We need evidence to support that the
resulting decisions are well-founded. To aid development of trust in these
decisions, we develop a taxonomy delineating where trust in an analysis can
break down: (1) in the translation of real-world goals to goals on a particular
set of available training data, (2) in the translation of abstract goals on the
training data to a concrete mathematical problem, (3) in the use of an
algorithm to solve the stated mathematical problem, and (4) in the use of a
particular code implementation of the chosen algorithm. We detail how trust can
fail at each step and illustrate our taxonomy with two case studies: an
analysis of the efficacy of microcredit and The Economist's predictions of the
2020 US presidential election. Finally, we describe a wide variety of methods
that can be used to increase trust at each step of our taxonomy. The use of our
taxonomy highlights steps where existing research work on trust tends to
concentrate and also steps where establishing trust is particularly
challenging.
- Abstract(参考訳): 確率論的機械学習は、医学、経済学、政治などの重要な決定を通知する。
結果の決定が十分に確立されていることを支持する証拠が必要です。
これらの決定における信頼の発達を支援するために,(1)利用可能なトレーニングデータの特定のセットにおける目標に対する現実の目標の翻訳において,(2)訓練データに関する抽象的な目標の具体的な数学的問題への翻訳において,(3)アルゴリズムを用いた数学的問題の解法において,(4)選択されたアルゴリズムの特定のコード実装において,分析における信頼が崩壊する可能性のある分類法を開発する。
我々は、それぞれの段階において信頼がいかに失敗するかを詳述し、私たちの分類学を2つのケーススタディで説明する: マイクロクレジットの有効性の分析と、2020年の米大統領選挙に関するThe Economistの予測。
最後に,分類の各ステップにおいて,信頼度を高めるために使用できる多種多様な手法について述べる。
我々の分類学の利用は、既存の信頼研究が集中する傾向にあるステップと、信頼を確立することが特に難しいステップを強調します。
関連論文リスト
- Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - Language Model Decoding as Likelihood-Utility Alignment [54.70547032876017]
モデルの有効性がタスク固有の実用性の概念とどのように一致しているかについて、暗黙の仮定に基づいて、デコード戦略をグループ化する分類法を導入する。
具体的には、様々なタスクの集合における予測の可能性と有用性の相関を解析することにより、提案された分類を裏付ける最初の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-10-13T17:55:51Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Learning Predictions for Algorithms with Predictions [49.341241064279714]
予測器を学習するアルゴリズムに対して,一般的な設計手法を導入する。
オンライン学習の手法を応用して、敵のインスタンスに対して学習し、堅牢性と一貫性のあるトレードオフを調整し、新しい統計的保証を得る。
両部マッチング,ページマイグレーション,スキーレンタル,ジョブスケジューリングの手法を解析することにより,学習アルゴリズムの導出におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-18T17:25:43Z) - Faithful Edge Federated Learning: Scalability and Privacy [4.8534377897519105]
フェデレーション学習は、ローカルデータセットの交換を必要とせずに、分散型エッジデバイスのネットワーク上で機械学習アルゴリズムをトレーニングすることを可能にする。
エージェントが自発的に参加するインセンティブに、フェデレーション学習の鍵となる特徴、不均衡データおよび非i.d.データがどのように影響するかを分析する。
経済性,スケーラビリティ,プライバシを満足する2つの忠実な連合学習機構を設計する。
論文 参考訳(メタデータ) (2021-06-30T08:46:40Z) - Insights into Fairness through Trust: Multi-scale Trust Quantification
for Financial Deep Learning [94.65749466106664]
金融深層学習において探求されていない公平性の基本的な側面は、信頼の概念である。
クレジットカードのデフォルト予測のために,ディープニューラルネットワーク上でマルチスケール信頼度定量化を行う。
論文 参考訳(メタデータ) (2020-11-03T19:05:07Z) - Targeting Learning: Robust Statistics for Reproducible Research [1.1455937444848387]
ターゲティング・ラーニング(Targeted Learning)は、因果推論、機械学習、統計理論の進歩を統一して、科学的に影響のある質問に統計的信頼性で答えるのに役立つ統計分野である。
ターゲット学習のロードマップは、仮説を最小化し、利用可能な科学的知識にのみ注意深く根ざすように、統計的手続きを調整することを強調する。
論文 参考訳(メタデータ) (2020-06-12T17:17:01Z) - Balancing Competing Objectives with Noisy Data: Score-Based Classifiers
for Welfare-Aware Machine Learning [43.518329314620416]
我々は、私的目的(利益など)と公共目的(社会福祉など)とを明確にトレードオフするアルゴリズム政策を研究する。
我々の結果は、社会福祉に影響を与える決定に機械学習を使うことにおける本質的にのトレードオフを浮き彫りにした。
論文 参考訳(メタデータ) (2020-03-15T02:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。