論文の概要: A Validity Perspective on Evaluating the Justified Use of Data-driven
Decision-making Algorithms
- arxiv url: http://arxiv.org/abs/2206.14983v1
- Date: Thu, 30 Jun 2022 02:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 15:55:03.312552
- Title: A Validity Perspective on Evaluating the Justified Use of Data-driven
Decision-making Algorithms
- Title(参考訳): データ駆動決定アルゴリズムの正当性評価のための妥当性の検討
- Authors: Amanda Coston, Anna Kawakami, Haiyi Zhu, Ken Holstein, and Hoda
Heidari
- Abstract要約: この研究は、ハイテイクなドメインでデータ駆動アルゴリズムを構築する方法に関する議論において、妥当性を検討することを目的としている。
我々は、重要な概念を妥当性理論から予測アルゴリズムに翻訳する。
本稿では,予測アルゴリズムの有効性を危うくする問題の定式化とデータ問題について述べる。
- 参考スコア(独自算出の注目度): 14.96024118861361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work seeks to center validity considerations in deliberations around
whether and how to build data-driven algorithms in high-stakes domains. Toward
this end, we translate key concepts from validity theory to predictive
algorithms. We describe common challenges in problem formulation and data
issues that jeopardize the validity of predictive algorithms. We distill these
issues into a series of high-level questions intended to promote and document
reflections on the legitimacy of the predictive task and the suitability of the
data. This contribution lays the foundation for co-designing a validity
protocol, in collaboration with real-world stakeholders, including
decision-makers, modelers, and members of potentially impacted communities, to
critically evaluate the justifiability of specific designs and uses of
data-driven algorithmic systems.
- Abstract(参考訳): この研究は、ハイテイクなドメインでデータ駆動アルゴリズムを構築する方法に関する議論において、妥当性を検討することを目的としている。
この目的に向けて,有効性理論から予測アルゴリズムへ重要な概念を翻訳する。
本稿では,予測アルゴリズムの妥当性を損なう問題定式化とデータ問題における共通課題について述べる。
これらの問題を、予測タスクの正当性とデータの適合性に関するリフレクションの促進と文書化を目的とした、一連のハイレベルな質問にまとめる。
この貢献は、特定の設計とデータ駆動アルゴリズムシステムの使用の正当性を評価するために、意思決定者、モデラー、潜在的影響のあるコミュニティのメンバーを含む現実世界の利害関係者と協力して、妥当性プロトコルを共同設計する基盤となる。
関連論文リスト
- Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - A Dataset for the Validation of Truth Inference Algorithms Suitable for Online Deployment [76.04306818209753]
実世界のクラウドソーシングプラットフォームから収集した,実質的なクラウドソーシングアノテーションデータセットを紹介する。
このデータセットは、約2万のワーカー、100万のタスク、600万のアノテーションで構成されている。
本データセットにおけるいくつかの代表的真理推論アルゴリズムの有効性を評価する。
論文 参考訳(メタデータ) (2024-03-10T16:00:41Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and
Regulatory Norms [58.93352076927003]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Joint Communication and Computation Framework for Goal-Oriented Semantic
Communication with Distortion Rate Resilience [13.36706909571975]
我々は、レート歪み理論を用いて、コミュニケーションやセマンティック圧縮によって引き起こされる歪みを解析する。
我々は、AIタスクの実証的精度を事前に見積もることができ、目標指向のセマンティックコミュニケーション問題を実現することができる。
論文 参考訳(メタデータ) (2023-09-26T00:26:29Z) - A toolkit of dilemmas: Beyond debiasing and fairness formulas for
responsible AI/ML [0.0]
公正で倫理的なAIへのアプローチは、最近、批判データ研究の新興分野の精査の下に落ちている。
本稿では,責任あるアルゴリズム/データ駆動システムを取り巻くジレンマに対して,位置的推論と創造的関与を提唱する。
論文 参考訳(メタデータ) (2023-03-03T13:58:24Z) - A Human-Centered Review of Algorithms in Decision-Making in Higher
Education [16.578096382702597]
我々は、高等教育における意思決定のためのアルゴリズムを提案する幅広い論文のコーパスをレビューした。
その結果,モデルが深層学習に傾きつつあり,学生の個人データや保護属性の利用が増加していることがわかった。
解釈可能性と説明可能性の低下にもかかわらず、現在の開発は主に人間中心のレンズを組み込むことができない。
論文 参考訳(メタデータ) (2023-02-12T02:30:50Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Evaluation Methods and Measures for Causal Learning Algorithms [33.07234268724662]
我々は2つの基本的な因果推論タスクと因果認識機械学習タスクに焦点を当てる。
この調査は、公開可能なベンチマークの開発と、観察データによる因果学習評価のためのコンセンサス標準の策定の緊急性に先んじることを目指している。
論文 参考訳(メタデータ) (2022-02-07T00:24:34Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - URSABench: Comprehensive Benchmarking of Approximate Bayesian Inference
Methods for Deep Neural Networks [15.521736934292354]
ディープラーニング手法は、幅広いアプリケーション領域で予測精度を向上し続けている。
ベイズ近似の最近の進歩は、これらの懸念に対処する上で大きな可能性を秘めている。
ベンチマーキングツールのオープンソーススイートであるURSABenchの開発について,ベイズ推定法を総合的に評価するための初期研究について述べる。
論文 参考訳(メタデータ) (2020-07-08T22:51:28Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。