論文の概要: Exposing Algorithmic Discrimination and Its Consequences in Modern
Society: Insights from a Scoping Study
- arxiv url: http://arxiv.org/abs/2312.04832v1
- Date: Fri, 8 Dec 2023 05:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 16:09:47.439227
- Title: Exposing Algorithmic Discrimination and Its Consequences in Modern
Society: Insights from a Scoping Study
- Title(参考訳): 現代社会におけるアルゴリズムの識別とその関連性:スコーピング研究から
- Authors: Ramandeep Singh Dehal, Mehak Sharma, Ronnie de Souza Santos
- Abstract要約: この研究は、アルゴリズム的差別を報告している長年にわたる様々な研究を掘り下げている。
私たちはこの問題に対処するソフトウェア工学の研究者や実践者を支援することを目指しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic discrimination is a condition that arises when data-driven
software unfairly treats users based on attributes like ethnicity, race,
gender, sexual orientation, religion, age, disability, or other personal
characteristics. Nowadays, as machine learning gains popularity, cases of
algorithmic discrimination are increasingly being reported in several contexts.
This study delves into various studies published over the years reporting
algorithmic discrimination. We aim to support software engineering researchers
and practitioners in addressing this issue by discussing key characteristics of
the problem
- Abstract(参考訳): アルゴリズムによる差別は、人種、人種、性別、性的指向、宗教、年齢、障害、その他の個人的特性などの属性に基づいて、データ駆動ソフトウェアがユーザーを不公平に扱うときに生じる条件である。
現在、機械学習が普及するにつれて、アルゴリズムによる差別の事例がいくつかの文脈で報告されている。
この研究は、アルゴリズム的差別を報告している長年にわたる様々な研究を掘り下げている。
我々は,この問題の鍵となる特徴を議論することで,この問題に対処するソフトウェア工学研究者や実践者を支援することを目的とする。
関連論文リスト
- Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Discrimination in machine learning algorithms [0.0]
機械学習アルゴリズムは、例えば信用スコアリングアルゴリズムがローンを拒否するため、個人に直接影響を及ぼす可能性のあるビジネス上の決定に日常的に使用される。
そして、倫理的(かつ法的)の観点から、これらのアルゴリズムが(性や人種のような)センシティブな属性に基づいて識別しないことを保証する。
論文 参考訳(メタデータ) (2022-06-30T21:35:42Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Beyond Algorithmic Bias: A Socio-Computational Interrogation of the
Google Search by Image Algorithm [0.799536002595393]
アルゴリズムを、すべての年齢と4種以上の人種の40万以上の顔で提示することで、監査する。
このアルゴリズムは、しばしば、女性および非白人個人を単純化し、ステレオタイピングし、識別する、白人男性の家長構造を再現する。
論文 参考訳(メタデータ) (2021-05-26T21:40:43Z) - A Survey of Embedding Space Alignment Methods for Language and Knowledge
Graphs [77.34726150561087]
単語,文,知識グラフの埋め込みアルゴリズムに関する現在の研究状況について調査する。
本稿では、関連するアライメント手法の分類と、この研究分野で使用されるベンチマークデータセットについて論じる。
論文 参考訳(メタデータ) (2020-10-26T16:08:13Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。