論文の概要: Learning Representational Disparities
- arxiv url: http://arxiv.org/abs/2505.17533v1
- Date: Fri, 23 May 2025 06:40:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.871995
- Title: Learning Representational Disparities
- Title(参考訳): 表現の格差を学習する
- Authors: Pavan Ravishankar, Rushabh Shah, Daniel B. Neill,
- Abstract要約: そこで本研究では,観察対象と所望の人的意思決定における解釈可能な差異をモデル化する,公正な機械学習アルゴリズムを提案する。
私たちのゴールは、人間の決定に対する具体的な判断によって修正される可能性のある解釈可能な表現格差を学習することです。
合理的に単純化された仮定の下で、表現格差のニューラルネットワークモデルが解釈可能な重みを学習し、結果格差を完全に緩和することを示す。
- 参考スコア(独自算出の注目度): 6.858829317769592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a fair machine learning algorithm to model interpretable differences between observed and desired human decision-making, with the latter aimed at reducing disparity in a downstream outcome impacted by the human decision. Prior work learns fair representations without considering the outcome in the decision-making process. We model the outcome disparities as arising due to the different representations of the input seen by the observed and desired decision-maker, which we term representational disparities. Our goal is to learn interpretable representational disparities which could potentially be corrected by specific nudges to the human decision, mitigating disparities in the downstream outcome; we frame this as a multi-objective optimization problem using a neural network. Under reasonable simplifying assumptions, we prove that our neural network model of the representational disparity learns interpretable weights that fully mitigate the outcome disparity. We validate objectives and interpret results using real-world German Credit, Adult, and Heritage Health datasets.
- Abstract(参考訳): 本研究では,人間の判断に影響を及ぼす下流結果の相違を低減することを目的とした,観察された人的意思決定と望ましい人的意思決定の解釈可能な相違をモデル化する,公平な機械学習アルゴリズムを提案する。
事前の作業は、意思決定プロセスの結果を考慮せずに公正な表現を学ぶ。
我々は、結果の不一致を、観察対象と所望の意思決定者によって見られる入力の異なる表現によって生じる結果の不一致をモデル化し、表現的不一致を表現的不一致と呼ぶ。
我々のゴールは、人間の決定に対する特定の判断によって修正される可能性のある解釈可能な表現の相違を学習し、下流の結果における相違を軽減し、ニューラルネットワークを用いた多目的最適化問題とみなすことである。
合理的に単純化された仮定の下で、表現格差のニューラルネットワークモデルが解釈可能な重みを学習し、結果格差を完全に緩和することを示す。
実世界のドイツ信用、アダルト、ヘリテージヘルスのデータセットを用いて、目的を検証し、結果を解釈する。
関連論文リスト
- Learning to Represent Individual Differences for Choice Decision Making [37.97312716637515]
我々は、表現学習を用いて、経済的な意思決定タスクにおいて、人のパフォーマンスの個人差を特徴づける。
表現学習を用いて個人差を捉えたモデルは、決定予測を一貫して改善することを示した。
この結果から,表現学習は個人差を捉えるのに有用で柔軟なツールであることが示唆された。
論文 参考訳(メタデータ) (2025-03-27T17:10:05Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - The Equity Framework: Fairness Beyond Equalized Predictive Outcomes [0.0]
意思決定者が物理的・社会的環境を描写するモデルから逸脱するモデルを使用すると生じる公平性の問題について検討する。
モデルへの平等なアクセス、モデルからの平等な結果、モデルの平等な利用を考慮に入れたEquity Frameworkを定式化する。
論文 参考訳(メタデータ) (2022-04-18T20:49:51Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Finding Representative Interpretations on Convolutional Neural Networks [43.25913447473829]
我々は、多数の類似画像に対して非常に代表的な解釈を生成するために、新しい教師なしのアプローチを開発する。
我々は,共クラスタリング問題として代表解釈を求める問題を定式化し,それをサブモジュラーコストのサブモジュラーカバー問題に変換する。
提案手法の優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2021-08-13T20:17:30Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Human-Understandable Decision Making for Visual Recognition [30.30163407674527]
モデル学習プロセスに人間の知覚の優先順位を組み込むことにより,深層ニューラルネットワークを訓練する新たなフレームワークを提案する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:07:33Z) - Loss Bounds for Approximate Influence-Based Abstraction [81.13024471616417]
影響に基づく抽象化は、システムの残りの部分が与える「影響」とともに、局所的なサブプロブレムをモデル化することでレバレッジを得ることを目的としている。
本稿では,理論的観点から,そのような手法の性能について考察する。
交叉エントロピーで訓練されたニューラルネットワークは、近似的な影響表現を学習するのに適していることを示す。
論文 参考訳(メタデータ) (2020-11-03T15:33:10Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。