論文の概要: Algorithmic Fairness: Not a Purely Technical but Socio-Technical Property
- arxiv url: http://arxiv.org/abs/2506.12556v2
- Date: Thu, 18 Sep 2025 23:49:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 14:11:07.109411
- Title: Algorithmic Fairness: Not a Purely Technical but Socio-Technical Property
- Title(参考訳): アルゴリズムフェアネス:純粋に技術的だが社会的な特性
- Authors: Yijun Bian, Lei You, Yuya Sasaki, Haruka Maeda, Akira Igarashi,
- Abstract要約: 公正さは純粋にモデルに関する技術的な制約に還元できないと我々は主張する。
本研究では,既存の公正度尺度の限界について,概念分析と実証図面を用いて検討する。
これらの発見は、技術的フォーマライゼーションと社会的現実のギャップを埋める助けになると考えています。
- 参考スコア(独自算出の注目度): 4.2894701473635966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid trend of deploying artificial intelligence (AI) and machine learning (ML) systems in socially consequential domains has raised growing concerns about their trustworthiness, including potential discriminatory behaviours. Research in algorithmic fairness has generated a proliferation of mathematical definitions and metrics, yet persistent misconceptions and limitations -- both within and beyond the fairness community -- limit their effectiveness, such as an unreached consensus on its understanding, prevailing measures primarily tailored to binary group settings, and superficial handling for intersectional contexts. Here we critically remark on these misconceptions and argue that fairness cannot be reduced to purely technical constraints on models; we also examine the limitations of existing fairness measures through conceptual analysis and empirical illustrations, showing their limited applicability in the face of complex real-world scenarios, challenging prevailing views on the incompatibility between accuracy and fairness as well as that among fairness measures themselves, and outlining three worth-considering principles in the design of fairness measures. We believe these findings will help bridge the gap between technical formalisation and social realities and meet the challenges of real-world AI/ML deployment.
- Abstract(参考訳): 人工知能(AI)と機械学習(ML)システムを社会的に連続した領域に展開する急激な傾向は、差別的行動を含む彼らの信頼性に対する懸念を高めている。
アルゴリズム的公正性の研究は、数学的定義やメトリクスの増大を生んでいるが、公正性コミュニティ内外では、持続的な誤解や制限は、その理解に関する未理解のコンセンサス、主にバイナリグループ設定に適合した対策、および交差コンテキストに対する表面的扱いなど、その効果を制限している。
ここでは、これらの誤解を批判的に指摘し、フェアネスはモデル上の純粋に技術的な制約に還元できない、と論じ、また、概念分析や実証的な図解を通して既存のフェアネス対策の限界を検証し、それらが複雑な現実のシナリオに直面して適用可能であることを示し、正確性と公正性の不整合性、そしてフェアネス対策自体の相違、そして、フェアネス対策の設計における3つの価値ある原則を概説する。
これらの発見は、技術的フォーマル化と社会的現実のギャップを埋め、現実のAI/MLデプロイメントの課題を満たすのに役立ちます。
関連論文リスト
- LTD-Bench: Evaluating Large Language Models by Letting Them Draw [57.237152905238084]
LTD-Benchは、大規模言語モデル(LLM)のブレークスルーベンチマークである。
LLMの評価を抽象的なスコアから直接観察可能な視覚出力に変換する。
LTD-Benchの視覚出力は強力な診断分析を可能にし、モデル類似性を調べるための潜在的アプローチを提供する。
論文 参考訳(メタデータ) (2025-11-04T08:11:23Z) - A Feminist Account of Intersectional Algorithmic Fairness [0.0]
我々は、交差フェミニスト理論からの洞察により、グリーンの実体的アルゴリズムフェアネスの概念を拡張した実体的区間的アルゴリズムフェアネスを提案する。
我々は,アルゴリズムシステムの設計,評価,展開を指導するために,ROOF方法論に10のデシラタを導入している。
計算科学と社会科学の視点をブリッジすることで、より公平で包括的で文脈に敏感な交叉アルゴリズムの実践のための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2025-08-25T12:09:04Z) - MLLMs are Deeply Affected by Modality Bias [158.64371871084478]
MLLM(Multimodal Large Language Models)の最近の進歩は、テキストや画像などの多様なモダリティを統合する上で、有望な成果を示している。
MLLMはモダリティバイアスに強く影響され、しばしば言語に依存し、視覚入力のような他のモダリティを過小評価する。
本稿では,MLLMはモダリティバイアスの影響を強く受けており,様々なタスクにまたがってその発現を明らかにする。
論文 参考訳(メタデータ) (2025-05-24T11:49:31Z) - The Other Side of the Coin: Exploring Fairness in Retrieval-Augmented Generation [73.16564415490113]
Retrieval-Augmented Generation (RAG)は、外部の知識ソースから関連文書を取得することにより、Large Language Models (LLM)を強化する。
本稿では,小規模LLMにおいてRAGが導入した公平性問題を軽減するために,FairFTとFairFilterの2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-11T10:17:10Z) - Contextual Fairness-Aware Practices in ML: A Cost-Effective Empirical Evaluation [48.943054662940916]
フェアネス・アウェアの実践を文脈的・費用対効果という2つの観点から検討する。
本研究は,文脈が公正な実践の有効性にどのように影響するかを考察する。
本研究の目的は,SE実践者に対して,最小パフォーマンスコストで公正性を実現するプラクティスの選択を指導することである。
論文 参考訳(メタデータ) (2025-03-19T18:10:21Z) - Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models [91.24296813969003]
本稿では,機械学習に因果的手法を取り入れて,信頼性の高いMLの主要な原則間のトレードオフをナビゲートすることを提唱する。
我々は、信頼できるMLと基礎モデルの両方において、複数の競合する目標のバランスをとるためには、因果的アプローチが不可欠であると主張する。
論文 参考訳(メタデータ) (2025-02-28T14:57:33Z) - Perceived Fairness of the Machine Learning Development Process: Concept Scale Development [0.0]
不公平は、データのバイアス、データキュレーションプロセス、誤った仮定、開発プロセス中にレンダリングされた暗黙のバイアスによって引き起こされる。
本稿では,透明性,説明責任,代表性に対する公正感の操作特性を提案する。
知覚フェアネスのための多次元フレームワークは、知覚フェアネスの包括的理解を提供する。
論文 参考訳(メタデータ) (2025-01-23T06:51:31Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fair Decision-making Under Uncertainty [1.5688552250473473]
公平性制約を考慮した縦断的検閲学習問題について検討する。
検閲情報を含む新たに考案された公正概念と,検閲の存在下での公正な予測のための一般的な枠組みが,不確実性の下での計測と差別を可能にしていることを示す。
論文 参考訳(メタデータ) (2023-01-29T05:42:39Z) - Tensions Between the Proxies of Human Values in AI [20.303537771118048]
AIコミュニティは、これらの柱の特定の定式化を選択するすべての結果を検討する必要がある、と私たちは主張する。
我々は,後者のフレームワークに関する社会工学的な研究をめざしているが,実際に実施するためには,より広範な努力が必要である。
論文 参考訳(メタデータ) (2022-12-14T21:13:48Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds [8.223468651994352]
フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-05-19T15:37:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Participatory Problem Formulation for Fairer Machine Learning Through
Community Based System Dynamics [0.0]
MLシステム開発における問題の定式化フェーズは、MLシステムフェアネスの結果にかなりのダウンストリームの影響をもたらすバイアスの重要な源となり得る。
現在のプラクティスでは、ハイテイクドメインの動的な複雑さや、脆弱な利害関係者の視点を考慮に入れていない。
本稿では,MLシステム開発プロセスの問題解決段階において,一般的に排除される利害関係者の参加を可能にするアプローチとして,コミュニティベースシステムダイナミクス(CBSD)を紹介する。
論文 参考訳(メタデータ) (2020-05-15T14:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。