論文の概要: Algorithmic Fairness in AI Surrogates for End-of-Life Decision-Making
- arxiv url: http://arxiv.org/abs/2510.16056v1
- Date: Thu, 16 Oct 2025 21:45:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.813447
- Title: Algorithmic Fairness in AI Surrogates for End-of-Life Decision-Making
- Title(参考訳): 終末期意思決定のためのAIサロゲートのアルゴリズムフェアネス
- Authors: Muhammad Aurangzeb Ahmad,
- Abstract要約: 人工知能サロゲート(英: AI surrogates)とは、個人が意思決定能力を失うと好みを推測するシステムである。
伝統的なアルゴリズムフェアネスフレームワークは、決定が関係性、存在、文化的に多様である文脈では不十分である。
本稿では,AIにおけるアルゴリズム的公正性に関する倫理的枠組みを,主要な公正性の概念を現実世界の終末シナリオにマッピングすることによって検討する。
- 参考スコア(独自算出の注目度): 1.049126606580198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence surrogates are systems designed to infer preferences when individuals lose decision-making capacity. Fairness in such systems is a domain that has been insufficiently explored. Traditional algorithmic fairness frameworks are insufficient for contexts where decisions are relational, existential, and culturally diverse. This paper explores an ethical framework for algorithmic fairness in AI surrogates by mapping major fairness notions onto potential real-world end-of-life scenarios. It then examines fairness across moral traditions. The authors argue that fairness in this domain extends beyond parity of outcomes to encompass moral representation, fidelity to the patient's values, relationships, and worldview.
- Abstract(参考訳): 人工知能サロゲート(英: AI surrogates)とは、個人が意思決定能力を失うと好みを推測するシステムである。
このようなシステムの公平性は、不十分に探索された領域である。
伝統的なアルゴリズムフェアネスフレームワークは、決定が関係性、存在、文化的に多様である文脈では不十分である。
本稿では,AIにおけるアルゴリズム的公正性に関する倫理的枠組みを,主要な公正性の概念を現実世界の終末シナリオにマッピングすることによって検討する。
その後、道徳的伝統にまたがる公平さを探求する。
著者らは、この領域における公平さは、道徳的表現、患者の価値観、関係性、世界観に忠実さを包含する結果のパリティを超えて広がっていると主張している。
関連論文リスト
- (Unfair) Norms in Fairness Research: A Meta-Analysis [6.395584220342517]
我々は,AIフェアネスと倫理に関する2つの主要なカンファレンスから,アルゴリズムフェアネス論文のメタ分析を行う。
まず、米国中心の視点が公正調査全体において支配的な傾向を示す。
第二に、公正性の研究は、人間のアイデンティティの二項結合に広く依存している。
論文 参考訳(メタデータ) (2024-06-17T17:14:47Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Beyond Fairness: Alternative Moral Dimensions for Assessing Algorithms
and Designing Systems [14.956800147435615]
我々は、道徳の単一の次元としての公平性への過度な依存が、他の重要な人間の価値を犠牲にしていると論じている。
公平性を超えた5つの道徳的次元を提示し、これらの代替次元が倫理的AI開発に寄与する3つの方法を提案する。
論文 参考訳(メタデータ) (2023-12-19T19:54:11Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Understanding Relations Between Perception of Fairness and Trust in
Algorithmic Decision Making [8.795591344648294]
本研究の目的は,人間における帰納的アルゴリズムの公平さと知覚の関係を理解することである。
また,アルゴリズムの公平性が,アルゴリズム決定におけるユーザの信頼にどのように影響するかについても検討する。
論文 参考訳(メタデータ) (2021-09-29T11:00:39Z) - Explaining how your AI system is fair [3.723553383515688]
我々は,エンドユーザーに実装された公平性を説明する手段として決定木を使用することを提案する。
特定のユースケースに「公平性」を指定することは、AIシステムの信頼性を維持するための最善の方法であると主張しています。
論文 参考訳(メタデータ) (2021-05-03T07:52:56Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。