論文の概要: Rebuilding Trust: Queer in AI Approach to Artificial Intelligence Risk
Management
- arxiv url: http://arxiv.org/abs/2110.09271v1
- Date: Tue, 21 Sep 2021 21:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 15:46:31.680902
- Title: Rebuilding Trust: Queer in AI Approach to Artificial Intelligence Risk
Management
- Title(参考訳): 信頼を再構築する - AIアプローチによる人工知能リスク管理
- Authors: Ashwin, William Agnew, Juan Pajaro, Arjun Subramonian (Organizers of
Queer in AI)
- Abstract要約: 信頼できるAIは、AIシステムとそのクリエイターに対する信頼が失われたり、そもそも存在しないため、重要なトピックになっている。
私たちは、信頼できるAI開発、デプロイメント、監視のフレームワークは、フェミニストと非エクスプロイト的デザインの原則の両方を取り入れなければならないと論じています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI, machine learning, and data science methods are already pervasive in our
society and technology, affecting all of our lives in many subtle ways.
Trustworthy AI has become an important topic because trust in AI systems and
their creators has been lost, or was never present in the first place.
Researchers, corporations, and governments have long and painful histories of
excluding marginalized groups from technology development, deployment, and
oversight. As a direct result of this exclusion, these technologies have long
histories of being less useful or even harmful to minoritized groups. This
infuriating history illustrates that industry cannot be trusted to
self-regulate and why trust in commercial AI systems and development has been
lost. We argue that any AI development, deployment, and monitoring framework
that aspires to trust must incorporate both feminist, non-exploitative
participatory design principles and strong, outside, and continual monitoring
and testing. We additionally explain the importance of considering aspects of
trustworthiness beyond just transparency, fairness, and accountability,
specifically, to consider justice and shifting power to the people and
disempowered as core values to any trustworthy AI system. Creating trustworthy
AI starts by funding, supporting, and empowering groups like Queer in AI so the
field of AI has the diversity and inclusion to credibly and effectively develop
trustworthy AI. Through our years of work and advocacy, we have developed
expert knowledge around questions of if and how gender, sexuality, and other
aspects of identity should be used in AI systems and how harms along these
lines should be mitigated. Based on this, we discuss a gendered approach to AI,
and further propose a queer epistemology and analyze the benefits it can bring
to AI.
- Abstract(参考訳): AI、機械学習、データサイエンスの手法はすでに私たちの社会やテクノロジーに浸透しており、多くの微妙な方法で私たちの生活に影響を与えています。
信頼できるAIは、AIシステムとそのクリエイターに対する信頼が失われたり、そもそも存在しないため、重要なトピックになっている。
研究者、企業、そして政府には、技術開発、展開、監視から疎外されたグループを排除するという、長く苦しい歴史がある。
この排除の直接的な結果として、これらの技術は、少数派グループにとって役に立たない、あるいは有害でないという長い歴史を持っている。
この激怒する歴史は、業界が自己統制に信頼できないこと、そしてなぜ商用AIシステムと開発への信頼が失われたのかを示している。
信頼を願うAI開発、デプロイメント、監視フレームワークには、フェミニストと非挑発的な参加型設計原則、強力な外部、継続的な監視とテストの両方を取り入れなければなりません。
さらに、透明性、公平性、説明責任を越えて信頼性の側面を検討することの重要性、具体的には、正義を考慮し、人々に権限を移し、信頼に値するaiシステムの中核的価値として権限を剥奪することについて説明する。
信頼できるAIを作ることは、AIにおけるQueerのようなグループへの資金提供、支援、権限付与から始まり、AIの分野は、信頼できるAIを信頼できる、効果的に開発するための多様性と包摂性を持っている。
長年の作業と擁護を通じて、AIシステムにおいて性別、セクシュアリティ、その他のアイデンティティの側面が使用されるべきかどうか、そしてこれらの線に沿った害が緩和されるべきかどうかに関する専門家の知識が生まれました。
これに基づいて、AIに対するジェンダー化されたアプローチについて議論し、さらにクィア認識論を提案し、AIにもたらすメリットを分析する。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Never trust, always verify : a roadmap for Trustworthy AI? [12.031113181911627]
我々はAIベースのシステムのコンテキストにおける信頼を検証し、AIシステムが信頼に値するものとなることの意味を理解する。
我々は、AIに対する信頼(resp. zero-trust)モデルを提案し、AIシステムの信頼性を保証するために満足すべき特性のセットを提案する。
論文 参考訳(メタデータ) (2022-06-23T21:13:10Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。