論文の概要: Fairness-aware organ exchange and kidney paired donation
- arxiv url: http://arxiv.org/abs/2503.06431v1
- Date: Sun, 09 Mar 2025 04:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:45:31.374743
- Title: Fairness-aware organ exchange and kidney paired donation
- Title(参考訳): フェアネスに配慮した臓器交換と腎ペアドドローイング
- Authors: Mingrui Zhang, Xiaowu Dai, Lexin Li,
- Abstract要約: KPDプログラムは、腎臓移植における非互換性の課題を克服するための革新的な解決策を提供する。
不平等な移植機会に対処するためには、グループフェアネスと個人フェアネスという2つの広く使われているフェアネス基準がある。
機械学習の校正原理に触発されて、我々は新しいフェアネス基準を導入する: 一致した結果が保護された特徴から条件的に独立していなければならない。
- 参考スコア(独自算出の注目度): 10.277630436997365
- License:
- Abstract: The kidney paired donation (KPD) program provides an innovative solution to overcome incompatibility challenges in kidney transplants by matching incompatible donor-patient pairs and facilitating kidney exchanges. To address unequal access to transplant opportunities, there are two widely used fairness criteria: group fairness and individual fairness. However, these criteria do not consider protected patient features, which refer to characteristics legally or ethically recognized as needing protection from discrimination, such as race and gender. Motivated by the calibration principle in machine learning, we introduce a new fairness criterion: the matching outcome should be conditionally independent of the protected feature, given the sensitization level. We integrate this fairness criterion as a constraint within the KPD optimization framework and propose a computationally efficient solution. Theoretically, we analyze the associated price of fairness using random graph models. Empirically, we compare our fairness criterion with group fairness and individual fairness through both simulations and a real-data example.
- Abstract(参考訳): 腎ペアド・ドナー(KPD)プログラムは、腎移植における非互換なドナーと患者のペアを一致させ、腎臓交換を容易にすることで、非互換性の課題を克服するための革新的な解決策を提供する。
不平等な移植機会に対処するためには、グループフェアネスと個人フェアネスという2つの広く使われているフェアネス基準がある。
しかし、これらの基準は保護された患者の特徴を考慮せず、人種や性別などの差別から保護する必要があると法的または倫理的に認識されている特徴を指している。
機械学習におけるキャリブレーション原理に動機付けられて、我々は新しいフェアネス基準を導入する: 一致した結果が、感性レベルを考慮して、保護された特徴から条件的に独立していなければならない。
KPD最適化フレームワークにおいて,この公正度基準を制約として統合し,計算効率の良い解を提案する。
理論的には、ランダムグラフモデルを用いて、フェアネスの関連価格を分析する。
実験では,シミュレーションと実データ例を用いて,グループフェアネスと個人フェアネスを比較した。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - A Data Envelopment Analysis Approach for Assessing Fairness in Resource Allocation: Application to Kidney Exchange Programs [3.130722489512822]
本稿では,データ包絡分析(Data Envelopment Analysis, DEA)を利用した公正度評価手法を提案する。
我々は、ウェイトリスト期間、キドニードナープロファイルスコアによるアクセスフェアネス、グラフトライフスパンによるアウトカムフェアネスを分析した。
本研究は,複雑な資源配分システムにおける公平性を評価するための厳密な枠組みを提供する。
論文 参考訳(メタデータ) (2024-09-18T15:17:43Z) - On the (In)Compatibility between Group Fairness and Individual Fairness [3.6052935394000234]
最適統計パリティ解と個人公正性との整合性について検討する。
トレーニングされたモデルの構成と最適な後処理ステップに対して、個別の公正性を保証する。
論文 参考訳(メタデータ) (2024-01-13T23:38:10Z) - Towards Fair Patient-Trial Matching via Patient-Criterion Level Fairness
Constraint [50.35075018041199]
本研究は,患者基準値の公正度制約を発生させることにより,公正な患者間マッチングの枠組みを提案する。
実世界における患者基準と患者基準の整合性に関する実験結果から,提案手法が偏りやすい予測を効果的に緩和できることが示唆された。
論文 参考訳(メタデータ) (2023-03-24T03:59:19Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - FACT: A Diagnostic for Group Fairness Trade-offs [23.358566041117083]
グループフェアネス(グループフェアネス、英: Group Fairness)とは、個人の異なる集団が保護された属性によってどのように異なる扱いを受けるかを測定するフェアネスの概念のクラスである。
グループフェアネスにおけるこれらのトレードオフを体系的に評価できる一般的な診断法を提案する。
論文 参考訳(メタデータ) (2020-04-07T14:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。