論文の概要: Algorithmic Fairness amid Social Determinants: Reflection, Characterization, and Approach
- arxiv url: http://arxiv.org/abs/2508.08337v1
- Date: Sun, 10 Aug 2025 23:55:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.181984
- Title: Algorithmic Fairness amid Social Determinants: Reflection, Characterization, and Approach
- Title(参考訳): 社会決定要因におけるアルゴリズムフェアネス--リフレクション, キャラクタリゼーション, アプローチ
- Authors: Zeyu Tang, Alex John London, Atoosa Kasirzadeh, Sanmi Koyejo, Peter Spirtes, Kun Zhang,
- Abstract要約: 社会的決定要因(Social Determinant)は、特定の個人に直接関係しないが、コンテキストや環境の重要な側面を捉える変数である。
それまでのアルゴリズムフェアネス文学は、主にセンシティブな属性に焦点を当てており、しばしば社会的決定要因の役割を見落としている。
- 参考スコア(独自算出の注目度): 19.881116751039613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social determinants are variables that, while not directly pertaining to any specific individual, capture key aspects of contexts and environments that have direct causal influences on certain attributes of an individual. Previous algorithmic fairness literature has primarily focused on sensitive attributes, often overlooking the role of social determinants. Our paper addresses this gap by introducing formal and quantitative rigor into a space that has been shaped largely by qualitative proposals regarding the use of social determinants. To demonstrate theoretical perspectives and practical applicability, we examine a concrete setting of college admissions, using region as a proxy for social determinants. Our approach leverages a region-based analysis with Gamma distribution parameterization to model how social determinants impact individual outcomes. Despite its simplicity, our method quantitatively recovers findings that resonate with nuanced insights in previous qualitative debates, that are often missed by existing algorithmic fairness approaches. Our findings suggest that mitigation strategies centering solely around sensitive attributes may introduce new structural injustice when addressing existing discrimination. Considering both sensitive attributes and social determinants facilitates a more comprehensive explication of benefits and burdens experienced by individuals from diverse demographic backgrounds as well as contextual environments, which is essential for understanding and achieving fairness effectively and transparently.
- Abstract(参考訳): 社会的決定要因(Social Determinant)は、特定の個人に直接関係しないが、個人の特定の属性に直接的な因果的影響を持つ文脈や環境の重要な側面を捉える変数である。
それまでのアルゴリズムフェアネス文学は、主にセンシティブな属性に焦点を当てており、しばしば社会的決定要因の役割を見落としている。
本稿は, 社会的決定要因の利用に関する質的提案が中心となって形成されてきた空間に, 形式的かつ定量的な厳密さを導入することで, このギャップに対処する。
理論的視点と実践的適用性を示すため,大学入学の具体的設定について検討し,地域を社会的決定要因の代用として用いた。
提案手法は,ガンマ分布パラメータ化を用いた地域分析を用いて,社会的決定要因が個々の結果にどのように影響するかをモデル化する。
その単純さにもかかわらず,従来の定性的な議論において,従来のアルゴリズム的公正性アプローチに欠落していたニュアンスな洞察に共鳴する知見を定量的に回収する。
本研究は, 感度特性にのみ焦点を絞った緩和策が, 既存の差別に対処する上で, 新たな構造的不正をもたらす可能性を示唆している。
センシティブな属性と社会的決定要因の両方を考慮すると、様々な階層的背景を持つ個人が経験した利益と負担のより包括的な説明と文脈的環境が促進され、公平さを効果的かつ透過的に理解し達成するために不可欠である。
関連論文リスト
- Argumentative Debates for Transparent Bias Detection [Technical Report] [18.27485896306961]
本稿では,個人に対する偏見の存在に関する議論に依拠して,新たな解釈可能な,説明可能なバイアス検出手法を提案する。
本手法は, 形式的および計算的議論から得られた手法に基づいて, 周辺地域の偏見に関する議論から導かれる。
我々は,本手法の形式的,定量的,質的な評価を行い,その強度と解釈可能性,説明可能性を強調した。
論文 参考訳(メタデータ) (2025-08-06T14:56:08Z) - Reconciling Heterogeneous Effects in Causal Inference [44.99833362998488]
本稿では、機械学習におけるモデル乗法にReconcileアルゴリズムを適用し、因果推論における異種効果を再現する。
本研究の結果は,医療,保険,住宅などの高額な事業において,公正な成果の確保に有意な意味を持っている。
論文 参考訳(メタデータ) (2024-06-05T18:43:46Z) - Algorithmic Fairness: A Tolerance Perspective [31.882207568746168]
この調査はアルゴリズムの公正性に関する既存の文献を掘り下げ、特にその多面的な社会的影響を強調している。
我々は「寛容」に基づく新しい分類法を導入し、公正な結果の変動が許容される度合いとして定義する。
我々の体系的なレビューは多様な産業をカバーし、アルゴリズムによる意思決定と社会的株式のバランスに関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-04-26T08:16:54Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Impact Remediation: Optimal Interventions to Reduce Inequality [10.806517393212491]
我々は、既存の現実世界の格差に対処するための新しいアルゴリズムフレームワークを開発する。
本フレームワークの目的は、現実世界の格差を計測し、最適な介入ポリシーを発見することである。
最適な政策学習に関するほとんどの研究とは対照的に、格差低減自体を目的として検討する。
論文 参考訳(メタデータ) (2021-07-01T16:35:12Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。