論文の概要: Fairness Research For Machine Learning Should Integrate Societal Considerations
- arxiv url: http://arxiv.org/abs/2506.12556v1
- Date: Sat, 14 Jun 2025 15:54:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.481139
- Title: Fairness Research For Machine Learning Should Integrate Societal Considerations
- Title(参考訳): 機械学習のための公正な研究は、社会的な考察を統合すべきである
- Authors: Yijun Bian, Lei You,
- Abstract要約: 適切に定義された公正度尺度の重要性はいまだ過小評価されている。
理由としては、MLシステムが広く展開されているため、識別が重要であることが挙げられる。
人間とAIのフィードバックループは、小さな社会的バイアスと政治的バイアスだけが持続してもバイアスを増幅する。
- 参考スコア(独自算出の注目度): 5.6168844664788855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enhancing fairness in machine learning (ML) systems is increasingly important nowadays. While current research focuses on assistant tools for ML pipelines to promote fairness within them, we argue that: 1) The significance of properly defined fairness measures remains underestimated; and 2) Fairness research in ML should integrate societal considerations. The reasons include that detecting discrimination is critical due to the widespread deployment of ML systems and that human-AI feedback loops amplify biases, even when only small social and political biases persist.
- Abstract(参考訳): 近年,機械学習(ML)システムにおける公正性向上がますます重要になっている。
現在の研究は、MLパイプラインの公平性を促進するためのアシスタントツールに焦点を当てていますが、私たちは次のように論じています。
1) 適切に定義された公正度対策の重要性は,過小評価されているままである。
2)MLにおける公正な研究は社会的考察を統合するべきである。
理由としては、MLシステムの普及による差別の検出が重要であり、小さな社会的・政治的バイアスのみが持続する場合でも、人間とAIのフィードバックループはバイアスを増幅する。
関連論文リスト
- The Other Side of the Coin: Exploring Fairness in Retrieval-Augmented Generation [73.16564415490113]
Retrieval-Augmented Generation (RAG)は、外部の知識ソースから関連文書を取得することにより、Large Language Models (LLM)を強化する。
本稿では,小規模LLMにおいてRAGが導入した公平性問題を軽減するために,FairFTとFairFilterの2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-11T10:17:10Z) - Perceived Fairness of the Machine Learning Development Process: Concept Scale Development [0.0]
不公平は、データのバイアス、データキュレーションプロセス、誤った仮定、開発プロセス中にレンダリングされた暗黙のバイアスによって引き起こされる。
本稿では,透明性,説明責任,代表性に対する公正感の操作特性を提案する。
知覚フェアネスのための多次元フレームワークは、知覚フェアネスの包括的理解を提供する。
論文 参考訳(メタデータ) (2025-01-23T06:51:31Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds [8.223468651994352]
フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-05-19T15:37:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。