論文の概要: Combating Anti-Blackness in the AI Community
- arxiv url: http://arxiv.org/abs/2006.16879v1
- Date: Thu, 18 Jun 2020 19:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-13 13:27:42.417691
- Title: Combating Anti-Blackness in the AI Community
- Title(参考訳): AIコミュニティにおける反黒化の議論
- Authors: Devin Guillory
- Abstract要約: この研究は、AIコミュニティが積極的にかつ受動的に反ブラックネスに貢献する領域を解明し、害を減らすための実行可能なアイテムを提供することを目的としている。
- 参考スコア(独自算出の注目度): 1.3778851745408134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In response to a national and international awakening on the issues of
anti-Blackness and systemic discrimination, we have penned this piece to serve
as a resource for allies in the AI community who are wondering how they can
more effectively engage with dismantling racist systems. This work aims to help
elucidate areas where the AI community actively and passively contributes to
anti-Blackness and offers actionable items on ways to reduce harm.
- Abstract(参考訳): 反黒人と体系的差別の問題に関する全国的および国際的な覚醒に応えて、我々は、人種差別システムをより効果的に解体する方法を疑問視するAIコミュニティの同盟者のためのリソースとして、この作品を紹介した。
この研究は、AIコミュニティが積極的にかつ受動的に反ブラックネスに貢献する領域を解明し、害を減らすための実行可能なアイテムを提供することを目的としている。
関連論文リスト
- Exploiting the Margin: How Capitalism Fuels AI at the Expense of
Minoritized Groups [0.0]
本稿では、資本主義、人種抑圧、人工知能(AI)の複雑なネクサスについて考察する。
この研究は、資本主義的な実践を通じて、地域社会の歴史的搾取を追跡することによって、AI技術がどのように社会的偏見を反映し、増幅しているかを示す。
この記事では、AI開発に責任を負うための継続的な取り組みが紹介されている。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Manifestations of Xenophobia in AI Systems [3.4286054614285084]
我々は、AIソリューションの安全で倫理的な設計を促進することを目指している。
異種キセノフォビック・ハザードを最初に同定し,キセノフォビック・ハザードの影響を解析した。
我々は、ソーシャルメディアやレコメンデーションシステム、医療、移民、雇用、および大規模な事前訓練モデルにおけるバイアスに関する、AIとキセノフォビアの潜在的な相互作用についてレビューする。
論文 参考訳(メタデータ) (2022-12-15T14:58:32Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - AI and Blackness: Towards moving beyond bias and representation [0.8223798883838329]
AI倫理は人種に基づく表現と偏見という概念を超えてはならないと我々は主張する。
AIにおけるアンチブラックネスは、AIシステムの設計、開発、デプロイの基盤を提供する存在論的空間の検査をもっと必要とします。
論文 参考訳(メタデータ) (2021-11-05T18:24:54Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Towards an Abolitionist AI: the role of Historically Black Colleges and
Universities [0.0]
私は歴史的に黒人大学と大学は一種の廃止論者プロジェクトだと考えています。
私は人工知能、特にコンピューティングが人種的抑圧にどう貢献したか調べる。
私は、コンピューティングにおけるHBCUの持つ空間が、ブラックライフの可能性と実現を促進する技術としてのAIの再認識にどのように貢献するかを調べて結論付けます。
論文 参考訳(メタデータ) (2021-01-06T16:45:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。