論文の概要: ACROCPoLis: A Descriptive Framework for Making Sense of Fairness
- arxiv url: http://arxiv.org/abs/2304.11217v1
- Date: Wed, 19 Apr 2023 21:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:47:53.218740
- Title: ACROCPoLis: A Descriptive Framework for Making Sense of Fairness
- Title(参考訳): ACROCPoLis: 公正さの感覚を作るための記述型フレームワーク
- Authors: Andrea Aler Tubella, Dimitri Coelho Mollo, Adam Dahlgren Lindstr\"om,
Hannah Devinney, Virginia Dignum, Petter Ericson, Anna Jonsson, Timotheus
Kampik, Tom Lenaerts, Julian Alfredo Mendez, Juan Carlos Nieves
- Abstract要約: 本研究では,アロケーションプロセスを表現するためのACROCPoLisフレームワークを提案する。
このフレームワークは、異なる状況や手順に対する公平性評価に関連する要因を明示する共有語彙を提供する。
- 参考スコア(独自算出の注目度): 6.4686347616068005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness is central to the ethical and responsible development and use of AI
systems, with a large number of frameworks and formal notions of algorithmic
fairness being available. However, many of the fairness solutions proposed
revolve around technical considerations and not the needs of and consequences
for the most impacted communities. We therefore want to take the focus away
from definitions and allow for the inclusion of societal and relational aspects
to represent how the effects of AI systems impact and are experienced by
individuals and social groups. In this paper, we do this by means of proposing
the ACROCPoLis framework to represent allocation processes with a modeling
emphasis on fairness aspects. The framework provides a shared vocabulary in
which the factors relevant to fairness assessments for different situations and
procedures are made explicit, as well as their interrelationships. This enables
us to compare analogous situations, to highlight the differences in dissimilar
situations, and to capture differing interpretations of the same situation by
different stakeholders.
- Abstract(参考訳): 公正は、AIシステムの倫理的かつ責任ある開発と利用の中心であり、多数のフレームワークとアルゴリズムフェアネスの正式な概念が利用可能である。
しかしながら、フェアネスソリューションの多くは、最も影響のあるコミュニティのニーズや結果ではなく、技術的な考慮を中心に提案されている。
ですから私たちは、定義から焦点を逸脱し、AIシステムの効果がどのように影響し、個人や社会グループによって経験されるかを表現するために、社会的・リレーショナルな側面を取り入れたいと思っています。
本稿では,ACROCPoLisフレームワークを,公平性に着目したモデリングでアロケーションプロセスを表現する手法として提案する。
このフレームワークは、異なる状況や手続きに対する公正評価に関連する要因とそれらの相互関係を明示する共有語彙を提供する。
これにより、類似した状況を比較し、異なる状況の違いを強調し、異なる利害関係者による同じ状況の異なる解釈を捉えることができる。
関連論文リスト
- On Prediction-Modelers and Decision-Makers: Why Fairness Requires More
Than a Fair Prediction Model [1.3996171129586732]
予測に基づく意思決定の分野における暗黙の曖昧さは、予測の概念と決定の関係を考察する。
これら2つの要素が予測に基づく決定システムの最終的な公平性にどう影響するかを示す。
本稿では,予測に基づく意思決定において公平性を生み出す概念論理の理解と推論を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:34:42Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - What-is and How-to for Fairness in Machine Learning: A Survey,
Reflection, and Perspective [13.124434298120494]
機械学習文学においてこれまで提案されてきたフェアネスの概念を概観し,考察する。
また、現在の予測と決定によって引き起こされる長期的な影響についても検討する。
本稿では、目的を達成するために、ミッション(どんな公正を強制したいのか)と手段(どの公正分析が興味を持つのか)を一致させることの重要性を示す。
論文 参考訳(メタデータ) (2022-06-08T18:05:46Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - The Long Arc of Fairness: Formalisations and Ethical Discourse [0.0]
我々は、技術(形式化された)と公正に関する倫理的言説の関係は必ずしも明確で生産的であるとは限らないと論じる。
我々は、より包括的なアプローチであるダイナミックフェアネス・モデリングを導入し、倫理的言説からの議論とフォーマルフェアネス・メトリクスを実現する。
フェアネス関連プロセスのこれらの要素を文脈化することにより、動的フェアネスモデリングは、以前は遅滞した倫理的側面を明示する。
論文 参考訳(メタデータ) (2022-03-08T09:54:59Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - On the Relationship Between Active Inference and Control as Inference [62.997667081978825]
アクティブ推論(英: Active Inference、AIF)は、生物学的エージェントがモデルエビデンスに束縛された変動を最小限に抑えることを示唆する脳科学の新たな枠組みである。
制御・アズ・推論(英: Control-as-Inference, CAI)は、意思決定を変分推論問題とみなす強化学習の枠組みである。
論文 参考訳(メタデータ) (2020-06-23T13:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。