論文の概要: "My Kind of Woman": Analysing Gender Stereotypes in AI through The Averageness Theory and EU Law
- arxiv url: http://arxiv.org/abs/2407.17474v1
- Date: Thu, 27 Jun 2024 20:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-28 18:09:38.431656
- Title: "My Kind of Woman": Analysing Gender Stereotypes in AI through The Averageness Theory and EU Law
- Title(参考訳): My Kind of Woman:Averageness TheoryとEU法を通したAIにおけるジェンダーステレオタイプの分析
- Authors: Miriam Doh, and Anastasia Karagianni,
- Abstract要約: 本研究は,社会的ステレオタイプとアルゴリズム決定の相互作用に光を当てて,性別分類システムについて考察する。
認知心理学とフェミニスト法理論を取り入れることで、AIトレーニングに使用されるデータがジェンダーの多様性と公平性をいかに促進するかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study delves into gender classification systems, shedding light on the interaction between social stereotypes and algorithmic determinations. Drawing on the "averageness theory," which suggests a relationship between a face's attractiveness and the human ability to ascertain its gender, we explore the potential propagation of human bias into artificial intelligence (AI) systems. Utilising the AI model Stable Diffusion 2.1, we have created a dataset containing various connotations of attractiveness to test whether the correlation between attractiveness and accuracy in gender classification observed in human cognition persists within AI. Our findings indicate that akin to human dynamics, AI systems exhibit variations in gender classification accuracy based on attractiveness, mirroring social prejudices and stereotypes in their algorithmic decisions. This discovery underscores the critical need to consider the impacts of human perceptions on data collection and highlights the necessity for a multidisciplinary and intersectional approach to AI development and AI data training. By incorporating cognitive psychology and feminist legal theory, we examine how data used for AI training can foster gender diversity and fairness under the scope of the AI Act and GDPR, reaffirming how psychological and feminist legal theories can offer valuable insights for ensuring the protection of gender equality and non-discrimination in AI systems.
- Abstract(参考訳): 本研究は,社会的ステレオタイプとアルゴリズム的決定の相互作用に光を当てて,性別分類システムについて考察する。
顔の魅力と性別を識別する人間の能力の関係を示唆する「平均性理論」に基づき、人工知能(AI)システムへの人間の偏見の伝播の可能性を探る。
AIモデルであるStable Diffusion 2.1を利用して、人間の認知の中で観察される性別分類における魅力と精度の相関がAI内で持続するかどうかをテストするために、魅力のさまざまな意味を含むデータセットを作成しました。
以上の結果から,AIシステムは人体力学と同様に,魅力,社会的偏見の反映,アルゴリズム決定におけるステレオタイプに基づく性別分類の精度が変化していることが示唆された。
この発見は、人間の知覚がデータ収集に与える影響を考慮し、AI開発とAIデータトレーニングに対する多分野横断的なアプローチの必要性を強調している。
認知心理学とフェミニズムの法理論を取り入れることで、AIトレーニングに使用されるデータが、AI法とGDPRの範囲内でジェンダーの多様性と公平性をいかに促進するかを検証し、心理的およびフェミニズムの法理論が、AIシステムにおけるジェンダー平等と非差別の保護を確実にするための貴重な洞察を提供するかを再確認する。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Perceptions of Discriminatory Decisions of Artificial Intelligence: Unpacking the Role of Individual Characteristics [0.0]
個人差(デジタル自己効力性、技術的知識、平等への信念、政治的イデオロギー)は、AIの成果に対する認識と関連している。
デジタル自己効力と技術的知識は、AIに対する態度と肯定的に関連している。
リベラルイデオロギーは、結果信頼、より否定的な感情、より大きな懐疑主義と負の関連がある。
論文 参考訳(メタデータ) (2024-10-17T06:18:26Z) - Artificial Intelligence (AI) Onto-norms and Gender Equality: Unveiling the Invisible Gender Norms in AI Ecosystems in the Context of Africa [3.7498611358320733]
この研究は、オンノームがデジタル空間における特定のジェンダーの実践を、AI設計、トレーニング、使用を形作る空間の規範と性格を通してどのように伝播するかを検討する。
この研究は、データとコンテンツが、AIエコシステムの特定の社会的規範を促進するために、故意または無意識にどのように使われるかを調べることによって、オンノームは、AIが女性に関連するコンテンツとどのように関わるかを形作っている、と論じている。
論文 参考訳(メタデータ) (2024-08-22T22:54:02Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Responsible AI: Gender bias assessment in emotion recognition [6.833826997240138]
本研究は、顔認識のための深層学習手法における性別バイアスの研究を目的とする。
より多くのバイアスニューラルネットワークは、男性と女性のテストセット間の感情認識のより大きな精度のギャップを示しています。
論文 参考訳(メタデータ) (2021-03-21T17:00:21Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。