論文の概要: Evaluating AI Group Fairness: a Fuzzy Logic Perspective
- arxiv url: http://arxiv.org/abs/2406.18939v1
- Date: Thu, 27 Jun 2024 07:11:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 14:57:01.172746
- Title: Evaluating AI Group Fairness: a Fuzzy Logic Perspective
- Title(参考訳): AIグループの公正性を評価する - ファジィ論理的視点
- Authors: Emmanouil Krasanakis, Symeon Papadopoulos,
- Abstract要約: グループフェアネスを構成するものは、誰が尋ねられるか、社会的文脈に依存するが、定義はしばしば、彼らが課す統計的制約から小さな逸脱を受け入れるために緩和される。
ここでは、基本ファジィ論理の公理系において、群フェアネスの定義を文脈と緩和に関する不確実性から分離する。
一般に議論されている命題は、結果の数学的公式を標準化し、論理と真理値の選択を素人用語に書き起こすことが示される。
- 参考スコア(独自算出の注目度): 9.876903282565976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence systems often address fairness concerns by evaluating and mitigating measures of group discrimination, for example that indicate biases against certain genders or races. However, what constitutes group fairness depends on who is asked and the social context, whereas definitions are often relaxed to accept small deviations from the statistical constraints they set out to impose. Here we decouple definitions of group fairness both from the context and from relaxation-related uncertainty by expressing them in the axiomatic system of Basic fuzzy Logic (BL) with loosely understood predicates, like encountering group members. We then evaluate the definitions in subclasses of BL, such as Product or Lukasiewicz logics. Evaluation produces continuous instead of binary truth values by choosing the logic subclass and truth values for predicates that reflect uncertain context-specific beliefs, such as stakeholder opinions gathered through questionnaires. Internally, it follows logic-specific rules to compute the truth values of definitions. We show that commonly held propositions standardize the resulting mathematical formulas and we transcribe logic and truth value choices to layperson terms, so that anyone can answer them. We also use our framework to study several literature definitions of algorithmic fairness, for which we rationalize previous expedient practices that are non-probabilistic and show how to re-interpret their formulas and parameters in new contexts.
- Abstract(参考訳): 人工知能システムは、例えば特定の性別や人種に対する偏見を示すような、集団差別の尺度を評価し緩和することで、公正な懸念に対処することが多い。
しかしながら、グループフェアネスを構成するものは、誰が尋ねられるか、社会的文脈に依存するが、定義はしばしば、彼らが課す統計的制約から小さな逸脱を受け入れるために緩和される。
ここでは、基本ファジィ論理(BL)の公理系において、グループメンバーとの遭遇のような緩やかに理解された述語で表現することで、文脈と緩和に関連する不確実性の両方から群フェアネスの定義を分離する。
次に、プロダクツ論理やルカシエヴィチ論理など、BLのサブクラスにおける定義を評価する。
評価は、質問紙を通じて収集された利害関係者の意見など、不確実な文脈固有の信念を反映した述語に対する論理サブクラスと真理値を選択することによって、二項真理値の代わりに連続的に生成する。
内部的には、定義の真理値を計算するための論理固有の規則に従う。
一般に議論されている命題は、結果の数学的公式を標準化し、論理と真理値の選択を書写して、誰でも答えられるようにすることを示します。
我々はまた、アルゴリズムフェアネスの文献的定義について研究し、非確率的な過去の慣行を合理化し、それらの公式やパラメータを新しい文脈で再解釈する方法を示す。
関連論文リスト
- Coarse Set Theory: A Mathematical Foundation for Coarse Ethics [0.0]
本稿では,CST(Coarse Set Theory)を導入して,CE(Coarse Ethics)の数学的枠組みを確立する。
完全順序集合を用いて粗集合を定義し、要素とその群の間の階層的関係を特徴づける公理を提案する。
詳細な個々のデータを粗い表現に変換する粗いマッピングを定義することで、このフレームワークを拡張します。
論文 参考訳(メタデータ) (2025-02-11T08:18:37Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - Distributive Justice as the Foundational Premise of Fair ML:
Unification, Extension, and Interpretation of Group Fairness Metrics [0.0]
グループフェアネス指標は、予測に基づく意思決定システムの公正性を評価する確立された方法である。
本稿では,グループフェアネス指標の包括的枠組みを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:44:02Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Foundations of Reasoning with Uncertainty via Real-valued Logics [70.43924776071616]
我々は、本質的にすべての実数値論理をカバーするためにパラメータ化できる、音と強完全公理化を与える。
文のクラスは非常に豊かであり、各クラスは実数値論理の式の集合に対して可能な実値の集合を記述する。
論文 参考訳(メタデータ) (2020-08-06T02:13:11Z) - Abstracting Fairness: Oracles, Metrics, and Interpretability [21.59432019966861]
我々は,真理の公正さの理解を基盤とした,公正な神託から学べるものについて検討する。
我々の結果は、非常に望ましいが定義されていない分類システムの特性である解釈性(interpretablity)に影響を及ぼす。
論文 参考訳(メタデータ) (2020-04-04T03:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。