論文の概要: Data Feminism for AI
- arxiv url: http://arxiv.org/abs/2405.01286v1
- Date: Thu, 2 May 2024 13:46:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 16:24:55.069374
- Title: Data Feminism for AI
- Title(参考訳): AIのためのデータフェミニズム
- Authors: Lauren Klein, Catherine D'Ignazio,
- Abstract要約: Data Feminism (2020)では、データサイエンスにおける不平等なパワーを調べ、挑戦するための7つの原則を提示しました。
ここでは、フェミニズムがAI研究に深く関係している理由を説明し、AIに関するデータフェミニズムの原原則を再検討し、環境への影響と同意に関する2つの新しい原則を導入する。
これらの原則は、1)AI研究、開発、展開における不平等、非民主的、抽出的、排他的力、2)安全でない、差別的、その他の抑圧的なシステムが世界に解放される前に、予測可能な害を識別し、予測すること、3)創造的、喜び的、集団的な方法を促すことに役立つ。
- 参考スコア(独自算出の注目度): 2.181420782258584
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a set of intersectional feminist principles for conducting equitable, ethical, and sustainable AI research. In Data Feminism (2020), we offered seven principles for examining and challenging unequal power in data science. Here, we present a rationale for why feminism remains deeply relevant for AI research, rearticulate the original principles of data feminism with respect to AI, and introduce two potential new principles related to environmental impact and consent. Together, these principles help to 1) account for the unequal, undemocratic, extractive, and exclusionary forces at work in AI research, development, and deployment; 2) identify and mitigate predictable harms in advance of unsafe, discriminatory, or otherwise oppressive systems being released into the world; and 3) inspire creative, joyful, and collective ways to work towards a more equitable, sustainable world in which all of us can thrive.
- Abstract(参考訳): 本稿では、公平で倫理的で持続可能なAI研究を行うための交叉フェミニストの原則について述べる。
Data Feminism (2020)では、データサイエンスにおける不平等なパワーを調べ、挑戦する7つの原則を提示しました。
ここでは、フェミニズムがAI研究に深く関係している理由を説明し、AIに関するデータフェミニズムの原原則を再検討し、環境への影響と同意に関する2つの新しい原則を導入する。
これらの原則は共に役立ちます
1)AI研究,開発及び展開における不平等,非民主的,抽出的,排他的な力について説明すること。
2 安全でない、差別的、その他の抑圧的なシステムが世界に放たれる前に、予測可能な害を識別し、緩和すること。
3) 創造的で喜びがあり、集団的な方法で、私たち全員が繁栄できる、より平等で持続可能な世界に向けて働くことを促す。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Towards a Feminist Metaethics of AI [0.0]
これらの不足は、AIのフェミニスト的メタ倫理に関する研究アジェンダを開発することで緩和できると私は主張する。
この視点をAIの文脈に適用することにより、AIのフェミニスト的メタ倫理は、(i)AI倫理における理論と行動の間の連続性、(ii)AI倫理の現実的な影響、(iii)AI倫理に関わる人々の役割とプロファイル、(iv)文脈、感情、物語に注意を払う方法を通じて、AIが権力関係に与える影響を調べることを提案します。
論文 参考訳(メタデータ) (2023-11-10T13:26:45Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The Different Faces of AI Ethics Across the World: A
Principle-Implementation Gap Analysis [12.031113181911627]
人工知能(AI)は、医療、宇宙探査、銀行、金融といった分野で、私たちの日常生活を変えつつある。
こうしたAIの急速な進歩は、AI技術が社会に与える影響に対する関心を高めている。
いくつかの倫理的原則は政府、国家、国際機関によって公表されている。
これらの原則は、AIの倫理的開発、デプロイメント、ガバナンスを導くための、ハイレベルな規範を概説している。
論文 参考訳(メタデータ) (2022-05-12T22:41:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Rebuilding Trust: Queer in AI Approach to Artificial Intelligence Risk
Management [0.0]
信頼できるAIは、AIシステムとそのクリエイターに対する信頼が失われたり、そもそも存在しないため、重要なトピックになっている。
私たちは、信頼できるAI開発、デプロイメント、監視のフレームワークは、フェミニストと非エクスプロイト的デザインの原則の両方を取り入れなければならないと論じています。
論文 参考訳(メタデータ) (2021-09-21T21:22:58Z) - Ethics of AI: A Systematic Literature Review of Principles and
Challenges [3.7129018407842445]
透明性、プライバシ、説明責任、公正性は、最も一般的なAI倫理原則として識別される。
倫理的知識の欠如と曖昧な原則は、AIにおける倫理を考える上で重要な課題として報告されている。
論文 参考訳(メタデータ) (2021-09-12T15:33:43Z) - Artificial Intelligence Ethics: An Inclusive Global Discourse? [0.9208007322096533]
本研究は,AI倫理に関するドキュメンテーションの台頭について考察する。
グローバル・サウスの両国と女性がこの議論で過小評価されているかどうかを調査している。
発見は、AI倫理文書におけるこれらの両方のテーマへの言及の欠如を示している。
グローバル・サウスの両国や女性からの十分なインプットがなければ、そのような倫理的枠組みや基準は差別的であるかもしれない。
論文 参考訳(メタデータ) (2021-08-23T06:08:00Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。