論文の概要: Artificial Intelligence (AI) Onto-norms and Gender Equality: Unveiling the Invisible Gender Norms in AI Ecosystems in the Context of Africa
- arxiv url: http://arxiv.org/abs/2408.12754v1
- Date: Thu, 22 Aug 2024 22:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 16:28:47.772899
- Title: Artificial Intelligence (AI) Onto-norms and Gender Equality: Unveiling the Invisible Gender Norms in AI Ecosystems in the Context of Africa
- Title(参考訳): 人工知能(AI)オントノームとジェンダー平等:アフリカにおけるAI生態系における見えないジェンダーノームの発見
- Authors: Angella Ndaka, Harriet Ratemo, Abigail Oppong, Eucabeth Majiwa,
- Abstract要約: この研究は、オンノームがデジタル空間における特定のジェンダーの実践を、AI設計、トレーニング、使用を形作る空間の規範と性格を通してどのように伝播するかを検討する。
この研究は、データとコンテンツが、AIエコシステムの特定の社会的規範を促進するために、故意または無意識にどのように使われるかを調べることによって、オンノームは、AIが女性に関連するコンテンツとどのように関わるかを形作っている、と論じている。
- 参考スコア(独自算出の注目度): 3.7498611358320733
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The study examines how ontonorms propagate certain gender practices in digital spaces through character and the norms of spaces that shape AI design, training and use. Additionally the study explores the different user behaviours and practices regarding whether, how, when, and why different gender groups engage in and with AI driven spaces. By examining how data and content can knowingly or unknowingly be used to drive certain social norms in the AI ecosystems, this study argues that ontonorms shape how AI engages with the content that relates to women. Ontonorms specifically shape the image, behaviour, and other media, including how gender identities and perspectives are intentionally or otherwise, included, missed, or misrepresented in building and training AI systems.
- Abstract(参考訳): この研究は、オンノームがデジタル空間における特定のジェンダーの実践を、AI設計、トレーニング、使用を形作る空間の規範と性格を通してどのように伝播するかを検討する。
さらに、この研究は、異なる性別グループがAI駆動の空間と関わるかどうか、いつ、どのように、なぜ、といった異なるユーザー行動とプラクティスについても調査している。
この研究は、データとコンテンツが、AIエコシステムの特定の社会的規範を促進するために、故意または無意識にどのように使われるかを調べることによって、オンノームは、AIが女性に関連するコンテンツとどのように関わるかを形作っている、と論じている。
オントノルムは、画像、行動、その他のメディアを特に形作っている。例えば、ジェンダーのアイデンティティや視点が、AIシステムの構築とトレーニングにおいて、意図的、その他の方法で、どのように含まれ、欠落し、あるいは誤って表現されるかである。
関連論文リスト
- She Works, He Works: A Curious Exploration of Gender Bias in AI-Generated Imagery [0.0]
本稿では, 建設作業員のAI画像における性別バイアスについて検討し, 男女の描写における相違点を明らかにする。
この分析は、グリセルダ・ポロックの視覚文化とジェンダーの理論に基づいており、AIモデルは女性の人物をより権威的で有能な人物として描写しながらセクシュアライズする傾向があることを示している。
論文 参考訳(メタデータ) (2024-07-26T05:56:18Z) - "My Kind of Woman": Analysing Gender Stereotypes in AI through The Averageness Theory and EU Law [0.0]
本研究は,社会的ステレオタイプとアルゴリズム決定の相互作用に光を当てて,性別分類システムについて考察する。
認知心理学とフェミニスト法理論を取り入れることで、AIトレーニングに使用されるデータがジェンダーの多様性と公平性をいかに促進するかを検討する。
論文 参考訳(メタデータ) (2024-06-27T20:03:27Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Enactive Artificial Intelligence: Subverting Gender Norms in Robot-Human
Interaction [0.0]
本稿では,AIに対するジェンダー非包摂的スタンスとして,eAI(Enactive Artificial Intelligence)を紹介する。
AIデザインは、人間の文化と価値観を反映した、制定された人間の社会文化的実践である。
論文 参考訳(メタデータ) (2023-01-17T21:27:20Z) - Cultural Incongruencies in Artificial Intelligence [5.817158625734485]
我々は、AIベースの言語とビジョン技術の文脈において、文化的な依存関係と矛盾のセットについて説明する。
これらの技術が世界規模で多様な社会や文化と相互作用し、異なる価値と解釈の実践によって問題が発生する。
論文 参考訳(メタデータ) (2022-11-19T18:45:02Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Mitigating Gender Bias in Machine Learning Data Sets [5.075506385456811]
ジェンダーバイアスは雇用広告や採用ツールの文脈で特定されている。
本稿では,機械学習のためのトレーニングデータにおける性別バイアスの同定のための枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-14T12:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。