論文の概要: Participatory Problem Formulation for Fairer Machine Learning Through
Community Based System Dynamics
- arxiv url: http://arxiv.org/abs/2005.07572v3
- Date: Fri, 22 May 2020 13:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 22:42:49.615901
- Title: Participatory Problem Formulation for Fairer Machine Learning Through
Community Based System Dynamics
- Title(参考訳): コミュニティベースシステムダイナミクスによるより公平な機械学習のための参加型問題定式化
- Authors: Donald Martin Jr. (1), Vinodkumar Prabhakaran (1), Jill Kuhlberg (2),
Andrew Smart (1), William S. Isaac (3) ((1) Google (2) System Stars (3)
DeepMind)
- Abstract要約: MLシステム開発における問題の定式化フェーズは、MLシステムフェアネスの結果にかなりのダウンストリームの影響をもたらすバイアスの重要な源となり得る。
現在のプラクティスでは、ハイテイクドメインの動的な複雑さや、脆弱な利害関係者の視点を考慮に入れていない。
本稿では,MLシステム開発プロセスの問題解決段階において,一般的に排除される利害関係者の参加を可能にするアプローチとして,コミュニティベースシステムダイナミクス(CBSD)を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research on algorithmic fairness has highlighted that the problem
formulation phase of ML system development can be a key source of bias that has
significant downstream impacts on ML system fairness outcomes. However, very
little attention has been paid to methods for improving the fairness efficacy
of this critical phase of ML system development. Current practice neither
accounts for the dynamic complexity of high-stakes domains nor incorporates the
perspectives of vulnerable stakeholders. In this paper we introduce community
based system dynamics (CBSD) as an approach to enable the participation of
typically excluded stakeholders in the problem formulation phase of the ML
system development process and facilitate the deep problem understanding
required to mitigate bias during this crucial stage.
- Abstract(参考訳): アルゴリズム的公平性に関する最近の研究は、mlシステム開発における問題定式化フェーズが、mlシステムフェアネスの結果に重要な下流の影響をもたらすバイアスの鍵となることを強調している。
しかし、MLシステム開発におけるこのクリティカルフェーズの公平性向上手法にはほとんど注意が払われていない。
現在のプラクティスは、高リスクドメインの動的な複雑さにも、脆弱な利害関係者の視点も考慮していない。
本稿では,MLシステム開発プロセスの課題形成段階において,一般的に排除される利害関係者の参加を可能にするアプローチとして,コミュニティベースシステムダイナミクス(CBSD)を導入し,この重要な段階においてバイアスを軽減するために必要な深い問題理解を促進する。
関連論文リスト
- Distribution-Aware Compensation Design for Sustainable Data Rights in Machine Learning [6.322978909154803]
本稿では,この課題をゲーム理論のレンズを通して見る革新的なメカニズムを提案する。
本手法は,包括的解析モデルによるデータ除去の波及効果を定量的に評価する。
我々は,主観的効用とシステム成果を測定する数学的基盤を確立する。
論文 参考訳(メタデータ) (2024-10-19T09:04:13Z) - The Missing Link: Allocation Performance in Causal Machine Learning [7.093692674858259]
一つのCATEモデルの性能が、さまざまな意思決定シナリオで大きく異なることを示す。
分布シフトなどの課題が予測やアロケーションに与える影響を明らかにする。
論文 参考訳(メタデータ) (2024-07-15T14:57:40Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Fairness: from the ethical principle to the practice of Machine Learning
development as an ongoing agreement with stakeholders [0.0]
本稿では,機械学習(ML)においてバイアスを完全に緩和できない理由を明らかにする。
正義と公正の倫理原理をML開発実践に翻訳するエンドツーエンドの方法論を提案する。
論文 参考訳(メタデータ) (2023-03-22T20:58:32Z) - Concrete Safety for ML Problems: System Safety for ML Development and
Assessment [0.758305251912708]
信頼感、意図しない社会的危害、容認できない社会的および倫理的違反に対する懸念は、MLの進歩の約束を損なう。
システム安全工学は、複雑度の高い社会技術システムにおいても、リスクを特定し管理する実績のある、確立された分野である。
論文 参考訳(メタデータ) (2023-02-06T18:02:07Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Contingency-Aware Influence Maximization: A Reinforcement Learning
Approach [52.109536198330126]
インフルエンス(IM)問題は、インフルエンスの普及を最大化する、ソーシャルネットワーク内のシードノードのサブセットを見つけることを目的としている。
本研究では、招待されたノードがシードであるかどうかが不確実なIM問題(contingency-aware IM)に焦点をあてる。
最初の成功にもかかわらず、より多くのコミュニティへのソリューションの推進における大きな実践上の障害は、欲張りのアルゴリズムの巨大な実行時である。
論文 参考訳(メタデータ) (2021-06-13T16:42:22Z) - An Empirical Comparison of Bias Reduction Methods on Real-World Problems
in High-Stakes Policy Settings [13.037143215464132]
4つの実世界の公共政策と社会善問題にまたがる機械学習パイプラインの異なる点で動作する複数の手法の性能について検討した。
モデルフェア性を改善するために,これらの手法の多種多様なバラツキと非一貫性を見出したが,グループ固有のスコアしきい値の選択による後処理は,一貫して差を除去している。
論文 参考訳(メタデータ) (2021-05-13T17:33:28Z) - Self-organizing Democratized Learning: Towards Large-scale Distributed
Learning Systems [71.14339738190202]
民主化された学習(Dem-AI)は、大規模な分散および民主化された機械学習システムを構築するための基本原則を備えた全体主義的哲学を定めている。
本稿では,Dem-AI哲学にヒントを得た分散学習手法を提案する。
提案アルゴリズムは,従来のFLアルゴリズムと比較して,エージェントにおける学習モデルの一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2020-07-07T08:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。