論文の概要: Towards Systematic Specification and Verification of Fairness Requirements: A Position Paper
- arxiv url: http://arxiv.org/abs/2509.20387v1
- Date: Mon, 22 Sep 2025 19:37:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.492333
- Title: Towards Systematic Specification and Verification of Fairness Requirements: A Position Paper
- Title(参考訳): 公正要件の体系的仕様と検証に向けて:ポジションペーパー
- Authors: Qusai Ramadan, Jukka Ruohonen, Abhishek Tiwari, Adam Alami, Zeyd Boukhers,
- Abstract要約: 差別は、よく特定された公正要件の欠如とその検証の結果であると主張する。
フェアネスに関する専門家の知識が暗黙的であるという事実は、正確で検証可能なフェアネス要件を特定することを困難にしている。
フェアネスのための知識グラフに基づくフレームワークの開発を提案する。
- 参考スコア(独自算出の注目度): 2.8091685003204905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decisions suggested by improperly designed software systems might be prone to discriminate against people based on protected characteristics, such as gender and ethnicity. Previous studies attribute such undesired behavior to flaws in algorithmic design or biased data. However, these studies ignore that discrimination is often the result of a lack of well-specified fairness requirements and their verification. The fact that experts' knowledge about fairness is often implicit makes the task of specifying precise and verifiable fairness requirements difficult. In related domains, such as security engineering, knowledge graphs have been proven to be effective in formalizing knowledge to assist requirements specification and verification. To address the lack of formal mechanisms for specifying and verifying fairness requirements, we propose the development of a knowledge graph-based framework for fairness. In this paper, we discuss the challenges, research questions, and a road map towards addressing the research questions.
- Abstract(参考訳): 不適切に設計されたソフトウェアシステムによって提案される決定は、性別や民族といった保護された特徴に基づいて人々に対して差別する傾向がある。
これまでの研究では、そのような望ましくない振る舞いはアルゴリズム設計の欠陥や偏りのあるデータによるものとされていた。
しかしながら、これらの研究は、しばしば差別は、明確に特定された公正性要件の欠如とその検証の結果である、と無視する。
フェアネスに関する専門家の知識が暗黙的であるという事実は、正確で検証可能なフェアネス要件を特定することを困難にしている。
セキュリティ工学などの関連分野において、知識グラフは要求仕様と検証を支援するための知識の形式化に有効であることが証明されている。
フェアネス要件を規定し検証するための形式的メカニズムの欠如に対処するため,フェアネスのための知識グラフベースのフレームワークの開発を提案する。
本稿では,課題,研究課題,研究課題に対処するためのロードマップについて論じる。
関連論文リスト
- FairPFN: A Tabular Foundation Model for Causal Fairness [39.83807136585407]
因果公正(Causal fairness)は、アルゴリズムの差別を緩和する透明性のある、ループ内の人間的フレームワークを提供する。
本研究では,合成因果フェアネスデータに基づいて事前学習したモデルであるFairPFNを提案し,その予測における保護属性の因果効果の同定と緩和を行う。
論文 参考訳(メタデータ) (2025-06-08T09:15:45Z) - Causal Discovery with Language Models as Imperfect Experts [119.22928856942292]
専門知識を用いて因果グラフの同定を改善する方法について検討する。
整合性に基づく専門家の知識を改良するための戦略を提案する。
本稿では,不完全な専門家として大規模言語モデルを用いる実データを用いたケーススタディについて報告する。
論文 参考訳(メタデータ) (2023-07-05T16:01:38Z) - A Survey on Intersectional Fairness in Machine Learning: Notions,
Mitigation, and Challenges [11.885166133818819]
機械学習システムの採用により、公平性への懸念が高まっている。
公平さと緩和の交叉観念に関する分類を提示する。
重要な課題を特定し、今後の方向性に関するガイドラインを研究者に提供する。
論文 参考訳(メタデータ) (2023-05-11T16:49:22Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。