論文の概要: Transfeminist AI Governance
- arxiv url: http://arxiv.org/abs/2503.15682v1
- Date: Wed, 19 Mar 2025 20:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:35:13.690854
- Title: Transfeminist AI Governance
- Title(参考訳): トランスフェミニストAIガバナンス
- Authors: Blair Attard-Frost,
- Abstract要約: 記事は、トランスフェミニストレンズを通して人工知能(AI)のガバナンスを再想像する。
トランスフェミニストとフェミニストの倫理理論に基づいて、トランスフェミニストのAIガバナンスへのアプローチを紹介します。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This article re-imagines the governance of artificial intelligence (AI) through a transfeminist lens, focusing on challenges of power, participation, and injustice, and on opportunities for advancing equity, community-based resistance, and transformative change. AI governance is a field of research and practice seeking to maximize benefits and minimize harms caused by AI systems. Unfortunately, AI governance practices are frequently ineffective at preventing AI systems from harming people and the environment, with historically marginalized groups such as trans people being particularly vulnerable to harm. Building upon trans and feminist theories of ethics, I introduce an approach to transfeminist AI governance. Applying a transfeminist lens in combination with a critical self-reflexivity methodology, I retroactively reinterpret findings from three empirical studies of AI governance practices in Canada and globally. In three reflections on my findings, I show that large-scale AI governance systems structurally prioritize the needs of industry over marginalized communities. As a result, AI governance is limited by power imbalances and exclusionary norms. This research shows that re-grounding AI governance in transfeminist ethical principles can support AI governance researchers, practitioners, and organizers in addressing those limitations.
- Abstract(参考訳): この記事では、トランスフェミニストレンズを通じて人工知能(AI)のガバナンスを再考し、権力、参加、不正の課題、エクイティの推進、コミュニティベースの抵抗、変革的変化に焦点をあてる。
AIガバナンスは、AIシステムによる利益の最大化と損害の最小化を目指す研究と実践の分野である。
残念なことに、AIガバナンスのプラクティスは、AIシステムが人々や環境に害を与えるのを防ぐために、しばしば非効率である。
トランスフェミニストとフェミニストの倫理理論に基づいて、トランスフェミニストのAIガバナンスへのアプローチを紹介します。
トランスフェミニストレンズと批判的な自己反射性方法論を組み合わせることで、私は、カナダと世界中でAIガバナンスの実践に関する3つの実証的研究の発見を遡って再解釈します。
私の発見を反映した3つの考察では、大規模AIガバナンスシステムは、過疎化コミュニティよりも産業のニーズを構造的に優先している。
その結果、AIガバナンスは権力不均衡と排他的規範によって制限される。
この研究は、トランスフェミニストの倫理原則におけるAIガバナンスの再基礎化が、これらの制限に対処するAIガバナンスの研究者、実践者、オーガナイザを支援することを示している。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Societal Adaptation to Advanced AI [1.2607853680700076]
先進的なAIシステムからリスクを管理する既存の戦略は、AIシステムの開発方法と拡散方法に影響を与えることに集中することが多い。
我々は、先進的なAIへの社会適応の増大という補完的なアプローチを奨励する。
我々は、AIシステムの潜在的に有害な使用を回避し、防御し、治療する適応的介入を特定するのに役立つ概念的枠組みを導入する。
論文 参考訳(メタデータ) (2024-05-16T17:52:12Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Rebuilding Trust: Queer in AI Approach to Artificial Intelligence Risk
Management [0.0]
信頼できるAIは、AIシステムとそのクリエイターに対する信頼が失われたり、そもそも存在しないため、重要なトピックになっている。
私たちは、信頼できるAI開発、デプロイメント、監視のフレームワークは、フェミニストと非エクスプロイト的デザインの原則の両方を取り入れなければならないと論じています。
論文 参考訳(メタデータ) (2021-09-21T21:22:58Z) - AI Governance for Businesses [2.072259480917207]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。