論文の概要: Algorithmic Fairness: Not a Purely Technical but Socio-Technical Property
- arxiv url: http://arxiv.org/abs/2506.12556v2
- Date: Thu, 18 Sep 2025 23:49:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 14:11:07.109411
- Title: Algorithmic Fairness: Not a Purely Technical but Socio-Technical Property
- Title(参考訳): アルゴリズムフェアネス:純粋に技術的だが社会的な特性
- Authors: Yijun Bian, Lei You, Yuya Sasaki, Haruka Maeda, Akira Igarashi,
- Abstract要約: 公正さは純粋にモデルに関する技術的な制約に還元できないと我々は主張する。
本研究では,既存の公正度尺度の限界について,概念分析と実証図面を用いて検討する。
これらの発見は、技術的フォーマライゼーションと社会的現実のギャップを埋める助けになると考えています。
- 参考スコア(独自算出の注目度): 4.2894701473635966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid trend of deploying artificial intelligence (AI) and machine learning (ML) systems in socially consequential domains has raised growing concerns about their trustworthiness, including potential discriminatory behaviours. Research in algorithmic fairness has generated a proliferation of mathematical definitions and metrics, yet persistent misconceptions and limitations -- both within and beyond the fairness community -- limit their effectiveness, such as an unreached consensus on its understanding, prevailing measures primarily tailored to binary group settings, and superficial handling for intersectional contexts. Here we critically remark on these misconceptions and argue that fairness cannot be reduced to purely technical constraints on models; we also examine the limitations of existing fairness measures through conceptual analysis and empirical illustrations, showing their limited applicability in the face of complex real-world scenarios, challenging prevailing views on the incompatibility between accuracy and fairness as well as that among fairness measures themselves, and outlining three worth-considering principles in the design of fairness measures. We believe these findings will help bridge the gap between technical formalisation and social realities and meet the challenges of real-world AI/ML deployment.
- Abstract(参考訳): 人工知能(AI)と機械学習(ML)システムを社会的に連続した領域に展開する急激な傾向は、差別的行動を含む彼らの信頼性に対する懸念を高めている。
アルゴリズム的公正性の研究は、数学的定義やメトリクスの増大を生んでいるが、公正性コミュニティ内外では、持続的な誤解や制限は、その理解に関する未理解のコンセンサス、主にバイナリグループ設定に適合した対策、および交差コンテキストに対する表面的扱いなど、その効果を制限している。
ここでは、これらの誤解を批判的に指摘し、フェアネスはモデル上の純粋に技術的な制約に還元できない、と論じ、また、概念分析や実証的な図解を通して既存のフェアネス対策の限界を検証し、それらが複雑な現実のシナリオに直面して適用可能であることを示し、正確性と公正性の不整合性、そしてフェアネス対策自体の相違、そして、フェアネス対策の設計における3つの価値ある原則を概説する。
これらの発見は、技術的フォーマル化と社会的現実のギャップを埋め、現実のAI/MLデプロイメントの課題を満たすのに役立ちます。
関連論文リスト
- MLLMs are Deeply Affected by Modality Bias [158.64371871084478]
MLLM(Multimodal Large Language Models)の最近の進歩は、テキストや画像などの多様なモダリティを統合する上で、有望な成果を示している。
MLLMはモダリティバイアスに強く影響され、しばしば言語に依存し、視覚入力のような他のモダリティを過小評価する。
本稿では,MLLMはモダリティバイアスの影響を強く受けており,様々なタスクにまたがってその発現を明らかにする。
論文 参考訳(メタデータ) (2025-05-24T11:49:31Z) - The Other Side of the Coin: Exploring Fairness in Retrieval-Augmented Generation [73.16564415490113]
Retrieval-Augmented Generation (RAG)は、外部の知識ソースから関連文書を取得することにより、Large Language Models (LLM)を強化する。
本稿では,小規模LLMにおいてRAGが導入した公平性問題を軽減するために,FairFTとFairFilterの2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-11T10:17:10Z) - Contextual Fairness-Aware Practices in ML: A Cost-Effective Empirical Evaluation [48.943054662940916]
フェアネス・アウェアの実践を文脈的・費用対効果という2つの観点から検討する。
本研究は,文脈が公正な実践の有効性にどのように影響するかを考察する。
本研究の目的は,SE実践者に対して,最小パフォーマンスコストで公正性を実現するプラクティスの選択を指導することである。
論文 参考訳(メタデータ) (2025-03-19T18:10:21Z) - Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models [91.24296813969003]
本稿では,機械学習に因果的手法を取り入れて,信頼性の高いMLの主要な原則間のトレードオフをナビゲートすることを提唱する。
我々は、信頼できるMLと基礎モデルの両方において、複数の競合する目標のバランスをとるためには、因果的アプローチが不可欠であると主張する。
論文 参考訳(メタデータ) (2025-02-28T14:57:33Z) - Perceived Fairness of the Machine Learning Development Process: Concept Scale Development [0.0]
不公平は、データのバイアス、データキュレーションプロセス、誤った仮定、開発プロセス中にレンダリングされた暗黙のバイアスによって引き起こされる。
本稿では,透明性,説明責任,代表性に対する公正感の操作特性を提案する。
知覚フェアネスのための多次元フレームワークは、知覚フェアネスの包括的理解を提供する。
論文 参考訳(メタデータ) (2025-01-23T06:51:31Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds [8.223468651994352]
フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-05-19T15:37:26Z) - Participatory Problem Formulation for Fairer Machine Learning Through
Community Based System Dynamics [0.0]
MLシステム開発における問題の定式化フェーズは、MLシステムフェアネスの結果にかなりのダウンストリームの影響をもたらすバイアスの重要な源となり得る。
現在のプラクティスでは、ハイテイクドメインの動的な複雑さや、脆弱な利害関係者の視点を考慮に入れていない。
本稿では,MLシステム開発プロセスの問題解決段階において,一般的に排除される利害関係者の参加を可能にするアプローチとして,コミュニティベースシステムダイナミクス(CBSD)を紹介する。
論文 参考訳(メタデータ) (2020-05-15T14:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。