論文の概要: Black Feminist Musings on Algorithmic Oppression
- arxiv url: http://arxiv.org/abs/2101.09869v2
- Date: Wed, 3 Feb 2021 01:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:17:41.801343
- Title: Black Feminist Musings on Algorithmic Oppression
- Title(参考訳): アルゴリズムによる抑圧に関する黒人フェミニストの運動
- Authors: Lelia Marie Hampton
- Abstract要約: この論文は、黒人フェミニズムがアルゴリズムによる抑圧を廃止する上で重要な役割を不当に反映している。
私はフェミニストの科学と技術の哲学的批判を描き、歴史的辺境の人々に対する科学的抑圧の歴史と連続性について議論する。
最終的には、抑圧的なシステムを廃止し、アルゴリズム開発プラクティスを変えることで、アルゴリズムの抑圧を廃止する苦労を想像して、あなたを招待します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper unapologetically reflects on the critical role that Black feminism
can and should play in abolishing algorithmic oppression. Positioning
algorithmic oppression in the broader field of feminist science and technology
studies, I draw upon feminist philosophical critiques of science and technology
and discuss histories and continuities of scientific oppression against
historically marginalized people. Moreover, I examine the concepts of
invisibility and hypervisibility in oppressive technologies a l\'a the
canonical double bind. Furthermore, I discuss what it means to call for
diversity as a solution to algorithmic violence, and I critique dialectics of
the fairness, accountability, and transparency community. I end by inviting you
to envision and imagine the struggle to abolish algorithmic oppression by
abolishing oppressive systems and shifting algorithmic development practices,
including engaging our communities in scientific processes, centering
marginalized communities in design, and consensual data and algorithmic
practices.
- Abstract(参考訳): この論文は、黒人フェミニズムがアルゴリズムによる抑圧を廃止する上で重要な役割を不当に反映している。
フェミニスト科学と技術研究の幅広い分野におけるアルゴリズム的抑圧を位置づけ、フェミニストの科学とテクノロジーの哲学的批判を取り上げ、歴史的に辺境化した人々に対する科学的抑圧の履歴と継続性について議論する。
さらに、圧縮技術における可視性と超可視性の概念を標準二重結合 l'a で検討する。
さらに,アルゴリズムによる暴力に対する解決策として多様性とは何か,公平性,説明責任,透明性コミュニティについて弁証論を批判する。
最後に、抑圧的なシステムを廃止し、アルゴリズム開発プラクティスをシフトさせることで、アルゴリズムの抑圧を廃止する闘争を想像し想像すること、例えば、科学プロセスへのコミュニティの関与、デザインにおける限界化されたコミュニティの集中、コンセンサスなデータとアルゴリズムの実践などです。
関連論文リスト
- A multitask learning framework for leveraging subjectivity of annotators to identify misogyny [47.175010006458436]
本研究では,誤識別システムの性能向上を目的としたマルチタスク学習手法を提案する。
6つのプロファイルグループにまたがる性別と年齢を考慮したモデル設計において,アノテータからさまざまな視点を取り入れた。
本研究は、コンテンツモデレーションを推進し、効果的なオンラインモデレーションシステムを構築するための多様な視点を受け入れることの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-22T15:06:08Z) - Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Why Algorithms Remain Unjust: Power Structures Surrounding Algorithmic Activity [0.0]
改革派はアルゴリズムを取り巻く電力構造を無視しているため、アルゴリズムの不正を抑えることができなかった。
アルゴリズム活動が平等で非民主的で、持続不可能な理由は、それを形作る権力構造が、社会的エンパワーメントというよりも経済的なエンパワーメントの1つであるからである、と私は主張する。
論文 参考訳(メタデータ) (2024-05-28T17:49:24Z) - Finding the white male: The prevalence and consequences of algorithmic gender and race bias in political Google searches [0.0]
本稿では,4つの研究のシリーズにおいて,少数化群のアルゴリズム表現の枠組みを提案し,検証する。
第一に、2つのアルゴリズムによる政治画像検索の監査は、検索エンジンが女性や非白人の政治家を軽視して、構造的不平等を反映し、維持していることを示す。
第二に、2つのオンライン実験は、これらのバイアスが、アルゴリズム表現の偏見によって、政治的現実の認識を歪め、白人で男性化された政治観を積極的に補強することを示している。
論文 参考訳(メタデータ) (2024-05-01T05:57:03Z) - Tokenization Matters: Navigating Data-Scarce Tokenization for Gender Inclusive Language Technologies [75.85462924188076]
ジェンダー非包括的NLP研究は、ジェンダーバイナリ中心大言語モデル(LLM)の有害な制限を文書化している。
誤認識はByte-Pair(BPE)トークン化によって大きく影響されている。
本研究では,(1)代名詞の代名詞化パリティ,(2)代名詞間の一貫した代名詞化を強制する手法,および(2)既存のLLM代名詞の知識を活用して新代名詞の習熟度を向上させる手法を提案する。
論文 参考訳(メタデータ) (2023-12-19T01:28:46Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Calling for a feminist revolt to decolonise data and algorithms in the
age of Datification [2.0559497209595823]
デジタル植民地化は人間の心の本質、すなわち想像と想像を占有する。
Militant Groupは、代替アルゴリズムやデータセット収集戦略、近似手法を想像し、設計している。
論文 参考訳(メタデータ) (2022-09-17T12:13:04Z) - Algorithmic Fairness and Structural Injustice: Insights from Feminist
Political Philosophy [2.28438857884398]
倫理的公正」は、データ駆動アルゴリズムにおける有害なバイアスを軽減することを目的としている。
フェミニスト政治哲学者の社会正義に対する見解は、ほとんど無視されてきた。
本稿では、フェミニストの政治哲学をアルゴリズム的公正性に導く。
論文 参考訳(メタデータ) (2022-06-02T09:18:03Z) - Towards decolonising computational sciences [0.0]
この闘争は2つの基本的なステップを必要としていると考えています。
フィールドの歴史と遺産に 不満を抱くことは 過去の過ちを 避ける鍵を握る
私たちは、これらの分野が、彼らの停滞したセクシスト、人種差別主義者の過去から離れて行くことを望んでいます。
論文 参考訳(メタデータ) (2020-09-29T18:48:28Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。