論文の概要: Fair Enough? A map of the current limitations of the requirements to have fair algorithms
- arxiv url: http://arxiv.org/abs/2311.12435v3
- Date: Wed, 14 Aug 2024 16:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 18:26:43.793803
- Title: Fair Enough? A map of the current limitations of the requirements to have fair algorithms
- Title(参考訳): Fair Enough? 公正なアルゴリズムを持つための要件の現在の制限のマップ
- Authors: Daniele Regoli, Alessandro Castelnovo, Nicole Inverardi, Gabriele Nanino, Ilaria Penco,
- Abstract要約: 我々は、社会が自動意思決定システムから要求しているものと、この要求が現実のシナリオで実際に意味しているものとの間には、因果関係があることを論じる。
自動意思決定システムにおける公正性の増大に具体的な意味を与えるため、社会として対応しなければならない重要なオープンポイントの集合を概説する。
- 参考スコア(独自算出の注目度): 43.609606707879365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the increase in the usage and efficiency of Artificial Intelligence and, more in general, of Automated Decision-Making systems has brought with it an increasing and welcome awareness of the risks associated with such systems. One of such risks is that of perpetuating or even amplifying bias and unjust disparities present in the data from which many of these systems learn to adjust and optimise their decisions. This awareness has on the one hand encouraged several scientific communities to come up with more and more appropriate ways and methods to assess, quantify, and possibly mitigate such biases and disparities. On the other hand, it has prompted more and more layers of society, including policy makers, to call for fair algorithms. We believe that while many excellent and multidisciplinary research is currently being conducted, what is still fundamentally missing is the awareness that having fair algorithms is per se a nearly meaningless requirement that needs to be complemented with many additional social choices to become actionable. Namely, there is a hiatus between what the society is demanding from Automated Decision-Making systems, and what this demand actually means in real-world scenarios. In this work, we outline the key features of such a hiatus and pinpoint a set of crucial open points that we as a society must address in order to give a concrete meaning to the increasing demand of fairness in Automated Decision-Making systems.
- Abstract(参考訳): 近年、人工知能の利用と効率の向上、そしてより一般的には、自動意思決定システムの利用が増加し、そのようなシステムに関連するリスクに対する認識が増加し、歓迎されている。
このようなリスクの1つは、バイアスを永続的に、あるいは増幅する、あるいは不公平な格差を、これらのシステムの多くが自分たちの決定を調整し、最適化することを学習するデータから得ることである。
この認識は、いくつかの科学コミュニティに、そのようなバイアスや格差を評価、定量化、あるいは軽減するための、より適切な方法や方法を考え出すことを奨励している。
一方で、政策立案者を含む社会の層が、公正なアルゴリズムを求めるようになった。
現在、多くの優れた学際的な研究が実施されているが、いまだ根本的に欠けているのは、公正なアルゴリズムを持つことは、行動可能な多くの社会的選択を補完する必要があるほとんど無意味な要件である、という認識である、と我々は信じている。
すなわち、社会が自動意思決定システムから要求しているものと、現実のシナリオにおいて実際にこの要求が意味するものとの間には、行き詰まりがある。
本研究は, 自動意思決定システムにおける公正性の増大に具体的な意味を与えるために, 社会として取り組むべき重要なオープンポイントの集合を, 確保する上で重要な特徴を概説するものである。
関連論文リスト
- Algorithmic Fairness: A Tolerance Perspective [31.882207568746168]
この調査はアルゴリズムの公正性に関する既存の文献を掘り下げ、特にその多面的な社会的影響を強調している。
我々は「寛容」に基づく新しい分類法を導入し、公正な結果の変動が許容される度合いとして定義する。
我々の体系的なレビューは多様な産業をカバーし、アルゴリズムによる意思決定と社会的株式のバランスに関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-04-26T08:16:54Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Systemic Fairness [5.833272638548154]
本稿では,機械学習アルゴリズムにおける整合性と体系的公正性に関する定式化について述べる。
それは、現実世界の文脈におけるエコシステム全体の公平性に関するアルゴリズム的公正性文学に、より集中することを求めている。
論文 参考訳(メタデータ) (2023-04-14T02:24:55Z) - Harms from Increasingly Agentic Algorithmic Systems [21.613581713046464]
公正性、説明責任、透明性、倫理(FATE)の研究は、多くのアルゴリズム的害の源泉と形態を確立している。
継続的な被害にもかかわらず、同じ害の永続性を脅かす新しいシステムが開発され、展開されている。
論文 参考訳(メタデータ) (2023-02-20T21:42:41Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Algorithmic Fairness [11.650381752104298]
正確であるだけでなく、客観的かつ公正なAIアルゴリズムを開発することが不可欠である。
近年の研究では、アルゴリズムによる意思決定は本質的に不公平である可能性が示されている。
論文 参考訳(メタデータ) (2020-01-21T19:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。