論文の概要: Beyond Algorithmic Bias: A Socio-Computational Interrogation of the
Google Search by Image Algorithm
- arxiv url: http://arxiv.org/abs/2105.12856v2
- Date: Sat, 12 Jun 2021 19:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 09:18:29.379378
- Title: Beyond Algorithmic Bias: A Socio-Computational Interrogation of the
Google Search by Image Algorithm
- Title(参考訳): アルゴリズムバイアスを超えて:画像アルゴリズムによるGoogle検索の社会計算的解釈
- Authors: Orestis Papakyriakopoulos and Arwa Michelle Mboya
- Abstract要約: アルゴリズムを、すべての年齢と4種以上の人種の40万以上の顔で提示することで、監査する。
このアルゴリズムは、しばしば、女性および非白人個人を単純化し、ステレオタイピングし、識別する、白人男性の家長構造を再現する。
- 参考スコア(独自算出の注目度): 0.799536002595393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We perform a socio-computational interrogation of the google search by image
algorithm, a main component of the google search engine. We audit the algorithm
by presenting it with more than 40 thousands faces of all ages and more than
four races and collecting and analyzing the assigned labels with the
appropriate statistical tools. We find that the algorithm reproduces white male
patriarchal structures, often simplifying, stereotyping and discriminating
females and non-white individuals, while providing more diverse and positive
descriptions of white men. By drawing from Bourdieu's theory of cultural
reproduction, we link these results to the attitudes of the algorithm's
designers, owners, and the dataset the algorithm was trained on. We further
underpin the problematic nature of the algorithm by using the ethnographic
practice of studying-up: We show how the algorithm places individuals at the
top of the tech industry within the socio-cultural reality that they shaped,
many times creating biased representations of them. We claim that the use of
social-theoretic frameworks such as the above are able to contribute to
improved algorithmic accountability, algorithmic impact assessment and provide
additional and more critical depth in algorithmic bias and auditing studies.
Based on the analysis, we discuss the scientific and design implications and
provide suggestions for alternative ways to design just socioalgorithmic
systems.
- Abstract(参考訳): 我々は,Google検索エンジンの主成分である画像アルゴリズムを用いて,Google検索の社会計算的尋問を行う。
我々は、全ての年齢と4種以上の人種の4000万人以上の顔と、割り当てられたラベルを適切な統計ツールで収集し分析することで、アルゴリズムを監査する。
このアルゴリズムは、白人男性の父長制構造を再現し、しばしば単純化し、ステレオタイプし、女性や非白人の個人を識別し、白人男性のより多様でポジティブな記述を与える。
Bourdieuの文化再生の理論から、これらの結果をアルゴリズムの設計者、所有者、アルゴリズムがトレーニングしたデータセットの態度と結びつけます。
アルゴリズムは、彼らが形成した社会文化的現実の中で、どのように個人をテック産業の頂点に置き、バイアスのある表現を何回も作り出すかを示します。
以上のような社会理論フレームワークの使用は、アルゴリズムのアカウンタビリティの向上、アルゴリズムの影響評価、アルゴリズムのバイアスおよび監査研究における追加的およびより重要な深度の提供に寄与できると主張している。
本分析に基づき,科学的・デザイン的な意味を考察し,社会倫理システムのみを設計するための代替手法を提案する。
関連論文リスト
- Finding the white male: The prevalence and consequences of algorithmic gender and race bias in political Google searches [0.0]
本稿では,4つの研究のシリーズにおいて,少数化群のアルゴリズム表現の枠組みを提案し,検証する。
第一に、2つのアルゴリズムによる政治画像検索の監査は、検索エンジンが女性や非白人の政治家を軽視して、構造的不平等を反映し、維持していることを示す。
第二に、2つのオンライン実験は、これらのバイアスが、アルゴリズム表現の偏見によって、政治的現実の認識を歪め、白人で男性化された政治観を積極的に補強することを示している。
論文 参考訳(メタデータ) (2024-05-01T05:57:03Z) - Multi-Dimensional Ability Diagnosis for Machine Learning Algorithms [88.93372675846123]
本稿では,機械学習アルゴリズム評価のためのタスク非依存評価フレームワークCamillaを提案する。
認識診断の仮定とニューラルネットワークを用いて、各サンプルのアルゴリズム、サンプル、スキル間の複雑な相互作用を学習する。
我々の実験では、カミラはメートル法信頼性、ランクの整合性、ランクの安定性で最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-07-14T03:15:56Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - Diversity matters: Robustness of bias measurements in Wikidata [4.950095974653716]
7大陸から選択された13の異なる人口層に対して、ウィキデータに表されるデータのバイアスを明らかにする。
我々は、13の人口層から採取された多数の職業について、センシティブな属性、すなわち性別に関する広範な実験を行う。
我々は,現在最先端のKG埋め込みアルゴリズムの選択が,性別に関わらず,偏りのある職業のランク付けに強い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-02-27T18:38:10Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Reinforcement Learning Algorithms: An Overview and Classification [0.0]
本研究では,3種類の環境タイプを特定し,それらの環境タイプに応じて強化学習アルゴリズムを分類する。
各アルゴリズムの概要は、アルゴリズムの基礎についての洞察を与え、アルゴリズム間の類似点と相違点をレビューする。
論文 参考訳(メタデータ) (2022-09-29T16:58:42Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - How to transfer algorithmic reasoning knowledge to learn new algorithms? [23.335939830754747]
我々は,実行トレースにアクセス可能なアルゴリズムを用いて,そうでない同様のタスクを解く方法について検討する。
9つのアルゴリズムと3つの異なるグラフタイプを含むデータセットを作成します。
我々はこれを実証的に検証し、その代わりにマルチタスク学習を用いてアルゴリズム推論知識の伝達を実現する方法を示す。
論文 参考訳(メタデータ) (2021-10-26T22:14:47Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。