論文の概要: The Perspective of Software Professionals on Algorithmic Racism
- arxiv url: http://arxiv.org/abs/2306.15133v1
- Date: Tue, 27 Jun 2023 01:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 15:09:08.445523
- Title: The Perspective of Software Professionals on Algorithmic Racism
- Title(参考訳): ソフトウェア専門家のアルゴリズム的人種差別観
- Authors: Ronnie de Souza Santos, Luiz Fernando de Lima, Cleyton Magalhaes
- Abstract要約: アルゴリズム的人種差別(英: Algorithmic racism)とは、その民族性に基づいてユーザーを拘束する技術的ソリューションの振る舞いを表す用語である。
本研究は,ソフトウェア専門家の視点から,アルゴリズム的人種差別を探求することを目的とする。
- 参考スコア(独自算出の注目度): 5.86857986102133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context. Algorithmic racism is the term used to describe the behavior of
technological solutions that constrains users based on their ethnicity. Lately,
various data-driven software systems have been reported to discriminate against
Black people, either for the use of biased data sets or due to the prejudice
propagated by software professionals in their code. As a result, Black people
are experiencing disadvantages in accessing technology-based services, such as
housing, banking, and law enforcement. Goal. This study aims to explore
algorithmic racism from the perspective of software professionals. Method. A
survey questionnaire was applied to explore the understanding of software
practitioners on algorithmic racism, and data analysis was conducted using
descriptive statistics and coding techniques. Results. We obtained answers from
a sample of 73 software professionals discussing their understanding and
perspectives on algorithmic racism in software development. Our results
demonstrate that the effects of algorithmic racism are well-known among
practitioners. However, there is no consensus on how the problem can be
effectively addressed in software engineering. In this paper, some solutions to
the problem are proposed based on the professionals' narratives. Conclusion.
Combining technical and social strategies, including training on structural
racism for software professionals, is the most promising way to address the
algorithmic racism problem and its effects on the software solutions delivered
to our society.
- Abstract(参考訳): コンテキスト。
アルゴリズム的人種差別(英: Algorithmic racism)とは、その民族性に基づいてユーザーを拘束する技術的ソリューションの振る舞いを指す用語である。
近年、様々なデータ駆動型ソフトウェアシステムが、偏見付きデータセットの使用や、ソフトウェア専門家がコードで広めた偏見により、黒人を差別していると報告されている。
その結果、黒人は住宅、銀行、法執行機関といった技術に基づくサービスへのアクセスに不利な状況に陥っている。
ゴール。
本研究は,ソフトウェア専門家の視点から,アルゴリズム的人種差別を探求することを目的とする。
方法。
アルゴリズム的人種差別に関するソフトウェア実践者の理解について調査調査を行い,記述統計とコーディング手法を用いてデータ分析を行った。
結果だ
ソフトウェア開発におけるアルゴリズム的人種差別に対する理解と視点を議論する73人のソフトウェア専門家のサンプルから回答を得た。
この結果から,アルゴリズム的人種差別の影響は実践者の間でよく知られている。
しかし、ソフトウェア工学においてどのようにこの問題が効果的に対処できるかについては合意がない。
本稿では,専門家の物語に基づいて,この問題に対するいくつかの解決策を提案する。
結論だ
ソフトウェア専門家のための構造的人種差別に関するトレーニングを含む技術的および社会的戦略を組み合わせることは、アルゴリズム的人種差別問題とその社会にもたらされるソフトウェアソリューションに対する影響に対処する最も有望な方法である。
関連論文リスト
- Algorithmic Fairness and Color-blind Racism: Navigating the Intersection [1.6317061277457001]
アルゴリズム的公正に関する多くの研究の流れがこの交差点で関心から生まれた。
人種的偏見の事例に動機づけられたものの、アルゴリズム的公正性の研究はほとんど人種差別に関する学問から切り離されている。
論文 参考訳(メタデータ) (2024-02-12T16:43:55Z) - User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - Exposing Algorithmic Discrimination and Its Consequences in Modern
Society: Insights from a Scoping Study [0.0]
この研究は、アルゴリズム的差別を報告している長年にわたる様々な研究を掘り下げている。
私たちはこの問題に対処するソフトウェア工学の研究者や実践者を支援することを目指しています。
論文 参考訳(メタデータ) (2023-12-08T05:09:00Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Inside the Black Box: Detecting and Mitigating Algorithmic Bias across Racialized Groups in College Student-Success Prediction [1.124958340749622]
大学生の成功予測の精度が人種集団によってどのように異なるのかを,アルゴリズムバイアスのシグナルとして検討した。
人種的にマイノリティのある学生の成功を予測する際に、大学学生の成功を予測するためによく使われる機能を組み込んだモデルが、いかに正確でないかを実証する。
アルゴリズムバイアスを緩和するための一般的なアプローチは、一般的に、予測結果の相違や人種化されたグループ間の正確性を排除するのに効果がない。
論文 参考訳(メタデータ) (2023-01-10T04:48:51Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - Beyond Algorithmic Bias: A Socio-Computational Interrogation of the
Google Search by Image Algorithm [0.799536002595393]
アルゴリズムを、すべての年齢と4種以上の人種の40万以上の顔で提示することで、監査する。
このアルゴリズムは、しばしば、女性および非白人個人を単純化し、ステレオタイピングし、識別する、白人男性の家長構造を再現する。
論文 参考訳(メタデータ) (2021-05-26T21:40:43Z) - Avoiding bias when inferring race using name-based approaches [0.8543368663496084]
我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
その結果、人種・民族によって名前に基づく推論の妥当性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
論文 参考訳(メタデータ) (2021-04-14T08:36:22Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。