論文の概要: Saving Face: Investigating the Ethical Concerns of Facial Recognition
Auditing
- arxiv url: http://arxiv.org/abs/2001.00964v1
- Date: Fri, 3 Jan 2020 20:03:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 00:22:24.915801
- Title: Saving Face: Investigating the Ethical Concerns of Facial Recognition
Auditing
- Title(参考訳): 顔の保存:顔認識監査の倫理的懸念の調査
- Authors: Inioluwa Deborah Raji, Timnit Gebru, Margaret Mitchell, Joy
Buolamwini, Joonseok Lee, Emily Denton
- Abstract要約: アルゴリズムによる監査は 人口を危険にさらす 効果があります これらの手段は 保護を意図しています
本稿では,商業的な顔処理技術の監査を行う場合の倫理的懸念点を5つ挙げる。
さらに、これらの懸念の具体的な図示を提供し、これらの懸念がアルゴリズム監査の役割に何を意味するのか、そしてそれらが明らかにする基本的な製品制限を反映して結論付けます。
- 参考スコア(独自算出の注目度): 17.42753238926119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although essential to revealing biased performance, well intentioned attempts
at algorithmic auditing can have effects that may harm the very populations
these measures are meant to protect. This concern is even more salient while
auditing biometric systems such as facial recognition, where the data is
sensitive and the technology is often used in ethically questionable manners.
We demonstrate a set of five ethical concerns in the particular case of
auditing commercial facial processing technology, highlighting additional
design considerations and ethical tensions the auditor needs to be aware of so
as not exacerbate or complement the harms propagated by the audited system. We
go further to provide tangible illustrations of these concerns, and conclude by
reflecting on what these concerns mean for the role of the algorithmic audit
and the fundamental product limitations they reveal.
- Abstract(参考訳): 偏りのあるパフォーマンスを明らかにするために必須であるが、アルゴリズムによる監査を意図した試みは、これらの措置が保護することを目的とした人口に影響を及ぼす可能性がある。
この懸念は、データが敏感で倫理的に疑わしい方法でしばしば使用される顔認識のような生体認証システムの監査においてさらに顕著である。
商業的な顔処理技術の監査を行う場合,特に5つの倫理的懸念点を提示し,監査者が意識すべき設計上の考慮点と倫理的緊張点を強調して,監査システムによって伝播する害を悪化させ,補うことのないようにした。
私たちはさらに,これらの懸念の具体的イラストを提供して,これらの懸念がアルゴリズム監査の役割に与える影響と,それらが明らかにする基本的な製品制限を振り返って締めくくっています。
関連論文リスト
- From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - A Game-Theoretic Analysis of Auditing Differentially Private Algorithms with Epistemically Disparate Herd [16.10098472773814]
本研究は,Stackelbergゲームアプローチを用いたアルゴリズム開発者に対する群集監査の効果について検討する。
透明性と説明責任を高めることで、Hed auditはプライバシ保護アルゴリズムの責任ある開発に寄与する。
論文 参考訳(メタデータ) (2024-04-24T20:34:27Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Justice in Misinformation Detection Systems: An Analysis of Algorithms,
Stakeholders, and Potential Harms [2.5372245630249632]
誤情報検出パイプラインにおける3つのアルゴリズム段階の利害関係者に対して、不正がいかに有効であるかを示す。
この枠組みは、研究者、政策立案者、そして実践者がアルゴリズムの誤情報検出に関連する潜在的な害やリスクを判断するのに役立つだろう。
論文 参考訳(メタデータ) (2022-04-28T15:31:13Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Fairness for Unobserved Characteristics: Insights from Technological
Impacts on Queer Communities [7.485814345656486]
性的指向と性同一性は、観察されない特性の原型例である。
アルゴリズム的公平性に対する新しいアプローチは、観測される特性の一般的な仮定から切り離される。
論文 参考訳(メタデータ) (2021-02-03T18:52:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。