論文の概要: A Sociotechnical View of Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2110.09253v1
- Date: Mon, 27 Sep 2021 21:17:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 15:34:42.783423
- Title: A Sociotechnical View of Algorithmic Fairness
- Title(参考訳): アルゴリズムフェアネスの社会学的考察
- Authors: Mateusz Dolata and Stefan Feuerriegel and Gerhard Schwabe
- Abstract要約: アルゴリズムの公正さは、自動意思決定におけるシステム的差別を緩和する新しい技術として位置づけられている。
公平性は本質的に社会的概念であり、それゆえにアルゴリズム的公正性のための技術は社会技術的レンズを通してアプローチされるべきである、と我々は主張する。
- 参考スコア(独自算出の注目度): 16.184328505946763
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Algorithmic fairness has been framed as a newly emerging technology that
mitigates systemic discrimination in automated decision-making, providing
opportunities to improve fairness in information systems (IS). However, based
on a state-of-the-art literature review, we argue that fairness is an
inherently social concept and that technologies for algorithmic fairness should
therefore be approached through a sociotechnical lens. We advance the discourse
on algorithmic fairness as a sociotechnical phenomenon. Our research objective
is to embed AF in the sociotechnical view of IS. Specifically, we elaborate on
why outcomes of a system that uses algorithmic means to assure fairness depends
on mutual influences between technical and social structures. This perspective
can generate new insights that integrate knowledge from both technical fields
and social studies. Further, it spurs new directions for IS debates. We
contribute as follows: First, we problematize fundamental assumptions in the
current discourse on algorithmic fairness based on a systematic analysis of 310
articles. Second, we respond to these assumptions by theorizing algorithmic
fairness as a sociotechnical construct. Third, we propose directions for IS
researchers to enhance their impacts by pursuing a unique understanding of
sociotechnical algorithmic fairness. We call for and undertake a holistic
approach to AF. A sociotechnical perspective on algorithmic fairness can yield
holistic solutions to systemic biases and discrimination.
- Abstract(参考訳): アルゴリズムの公正性は、自動意思決定におけるシステム的差別を緩和し、情報システム(IS)における公正性を改善する機会を提供する新しい技術であると考えられている。
しかし、最先端の文献レビューに基づいて、公平性は本質的に社会的概念であり、それゆえアルゴリズム的公平性のための技術は社会学的レンズを通してアプローチされるべきであると主張する。
我々は,社会技術的現象として,アルゴリズム的公正に関する議論を進める。
我々の研究目的は、ISの社会技術的視点にAFを組み込むことである。
具体的には,公平性を保証するアルゴリズム的手法を用いたシステムの結果が,技術構造と社会構造の相互影響に依存する理由について詳述する。
この視点は、技術分野と社会研究の両方から知識を統合する新しい洞察を生み出すことができる。
さらに、ISの議論の新たな方向を示唆している。
まず,310記事の体系的分析に基づいて,アルゴリズムフェアネスに関する現在の議論における基本的な仮定を問題化する。
第2に,アルゴリズム的公平性を社会学的構成として理論化することで,これらの仮定に応答する。
第3に,社会工学的アルゴリズムフェアネスの独特な理解を追求することで,IS研究者の影響力を高める方策を提案する。
AFに対する総合的なアプローチを求め、実行します。
アルゴリズムの公平性に関する社会技術的視点は、体系的バイアスと差別に対する全体論的解決策をもたらすことができる。
関連論文リスト
- Algorithmic Fairness: A Tolerance Perspective [31.882207568746168]
この調査はアルゴリズムの公正性に関する既存の文献を掘り下げ、特にその多面的な社会的影響を強調している。
我々は「寛容」に基づく新しい分類法を導入し、公正な結果の変動が許容される度合いとして定義する。
我々の体系的なレビューは多様な産業をカバーし、アルゴリズムによる意思決定と社会的株式のバランスに関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-04-26T08:16:54Z) - Algorithms as Social-Ecological-Technological Systems: an Environmental
Justice Lens on Algorithmic Audits [0.5076419064097732]
本稿では,社会・生態システムと密接に結びついているアルゴリズムシステムを再構成する。
環境正義指向型アルゴリズム監査のための第一種方法論を提案する。
論文 参考訳(メタデータ) (2023-05-09T19:25:25Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness Deconstructed: A Sociotechnical View of 'Fair' Algorithms in
Criminal Justice [0.0]
機械学習の研究者たちはフェアネスの手法を開発しており、その多くは保護された属性をまたいだ経験的メトリクスの等化に依存している。
公正なMLの多くは、基礎となる犯罪データに対する公平性の問題を考慮していない、と私は主張する。
電力不均衡を緩和するAIを構築する代わりに、構造的辺縁化の根本原因を理解するためにデータサイエンスを使用できるかどうかを尋ねる。
論文 参考訳(メタデータ) (2021-06-25T06:52:49Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - The FairCeptron: A Framework for Measuring Human Perceptions of
Algorithmic Fairness [1.4449464910072918]
FairCeptronフレームワークは、ランク付けや分類のようなアルゴリズムによる意思決定における公平さの知覚を研究するためのアプローチである。
このフレームワークは、公正シナリオ生成、公正知覚誘発、公正知覚分析を含む。
FairCeptronフレームワークの実装は公開されており、他のアプリケーションコンテキストにおけるアルゴリズム的公正性の認識に容易に適応することができる。
論文 参考訳(メタデータ) (2021-02-08T10:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。