論文の概要: The Gender Code: Gendering the Global Governance of Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2512.09570v1
- Date: Wed, 10 Dec 2025 12:02:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.508222
- Title: The Gender Code: Gendering the Global Governance of Artificial Intelligence
- Title(参考訳): ジェンダーコード:人工知能のグローバルガバナンスをジェンダー化する
- Authors: Jelena Cupac,
- Abstract要約: 本稿では、ジェンダー問題とジェンダーベースの害に対して、国際的AIガバナンスフレームワークがどのように対処するかを検討する。
楽器は、ジェンダーに関する懸念を、より広範な人権枠組みに統合するなど、新たなトレンドを明らかにします。
効果的なAIガバナンスは、交差点、強制可能、包括的でなければならない、と氏は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper examines how international AI governance frameworks address gender issues and gender-based harms. The analysis covers binding regulations, such as the EU AI Act; soft law instruments, like the UNESCO Recommendations on AI Ethics; and global initiatives, such as the Global Partnership on AI (GPAI). These instruments reveal emerging trends, including the integration of gender concerns into broader human rights frameworks, a shift toward explicit gender-related provisions, and a growing emphasis on inclusivity and diversity. Yet, some critical gaps persist, including inconsistent treatment of gender across governance documents, limited engagement with intersectionality, and a lack of robust enforcement mechanisms. However, this paper argues that effective AI governance must be intersectional, enforceable, and inclusive. This is key to moving beyond tokenism toward meaningful equity and preventing reinforcement of existing inequalities. The study contributes to ethical AI debates by highlighting the importance of gender-sensitive governance in building a just technological future.
- Abstract(参考訳): 本稿では、ジェンダー問題とジェンダーベースの害に対して、国際的AIガバナンスフレームワークがどのように対処するかを検討する。
この分析は、EU AI Act(英語版)やユネスコのAI倫理勧告(英語版)のようなソフト・ロー・インスツルメンツ、Global Partnership on AI(GPAI)のようなグローバル・イニシアチブなどのバインディング規制をカバーしている。
これらの機器は、より広範な人権枠組みへのジェンダーの関心の統合、明示的なジェンダー関連条項へのシフト、インクリシティと多様性の強調など、新たなトレンドを浮き彫りにしている。
しかし、ガバナンス文書間の性別の一貫性のない扱い、交差性への関与の制限、堅牢な執行機構の欠如など、いくつかの重要なギャップが続いている。
しかし、この論文では、効果的なAIガバナンスは交差点であり、強制可能であり、包括的である必要があると論じている。
これはトークン主義を超えて有意義な株式に移行し、既存の不平等の強化を防ぐ鍵となる。
この研究は、単に技術的な未来を構築する上で、性別に敏感なガバナンスの重要性を強調することによって、倫理的AIに関する議論に貢献する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Transfeminist AI Governance [0.0]
記事は、トランスフェミニストレンズを通して人工知能(AI)のガバナンスを再想像する。
トランスフェミニストとフェミニストの倫理理論に基づいて、トランスフェミニストのAIガバナンスへのアプローチを紹介します。
論文 参考訳(メタデータ) (2025-03-19T20:25:59Z) - What is Ethical: AIHED Driving Humans or Human-Driven AIHED? A Conceptual Framework enabling the Ethos of AI-driven Higher education [0.6216023343793144]
本研究は,ユネスコとOECDの倫理基準の遵守を保証するために,高次教育における人間駆動型AI(HD-AIHED)フレームワークを紹介する。
この研究は、参加型コシステム、フェーズドヒューマンインテリジェンス、SWOC分析、AI倫理レビューボードを適用して、大学やHE機関のAI準備とガバナンス戦略を評価する。
論文 参考訳(メタデータ) (2025-02-07T11:13:31Z) - Responsible AI Governance: A Response to UN Interim Report on Governing AI for Humanity [15.434533537570614]
このレポートは、持続可能な開発目標を達成するためのAIの変革の可能性を強調している。
それは、関連するリスクを軽減するための堅牢なガバナンスの必要性を認めている。
報告書は、責任あるAIガバナンスを促進するための実行可能な原則で締めくくっている。
論文 参考訳(メタデータ) (2024-11-29T18:57:24Z) - Thinking beyond Bias: Analyzing Multifaceted Impacts and Implications of AI on Gendered Labour [1.5839621757142595]
本稿では、ジェンダー労働に対するAIの広範な影響を探求する必要性を強調する。
私たちは、AI産業がより大きな経済構造に不可欠な要素であるということが、仕事の性質をいかに変えているかに注意を払っています。
論文 参考訳(メタデータ) (2024-06-23T20:09:53Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。