論文の概要: Saving Face: Investigating the Ethical Concerns of Facial Recognition
Auditing
- arxiv url: http://arxiv.org/abs/2001.00964v1
- Date: Fri, 3 Jan 2020 20:03:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-06-09 00:22:24.915801
- Title: Saving Face: Investigating the Ethical Concerns of Facial Recognition
Auditing
- Title(参考訳): 顔の保存:顔認識監査の倫理的懸念の調査
- Authors: Inioluwa Deborah Raji, Timnit Gebru, Margaret Mitchell, Joy
Buolamwini, Joonseok Lee, Emily Denton
- Abstract要約: アルゴリズムによる監査は 人口を危険にさらす 効果があります これらの手段は 保護を意図しています
本稿では,商業的な顔処理技術の監査を行う場合の倫理的懸念点を5つ挙げる。
さらに、これらの懸念の具体的な図示を提供し、これらの懸念がアルゴリズム監査の役割に何を意味するのか、そしてそれらが明らかにする基本的な製品制限を反映して結論付けます。
- 参考スコア(独自算出の注目度): 17.42753238926119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although essential to revealing biased performance, well intentioned attempts
at algorithmic auditing can have effects that may harm the very populations
these measures are meant to protect. This concern is even more salient while
auditing biometric systems such as facial recognition, where the data is
sensitive and the technology is often used in ethically questionable manners.
We demonstrate a set of five ethical concerns in the particular case of
auditing commercial facial processing technology, highlighting additional
design considerations and ethical tensions the auditor needs to be aware of so
as not exacerbate or complement the harms propagated by the audited system. We
go further to provide tangible illustrations of these concerns, and conclude by
reflecting on what these concerns mean for the role of the algorithmic audit
and the fundamental product limitations they reveal.
- Abstract(参考訳): 偏りのあるパフォーマンスを明らかにするために必須であるが、アルゴリズムによる監査を意図した試みは、これらの措置が保護することを目的とした人口に影響を及ぼす可能性がある。
この懸念は、データが敏感で倫理的に疑わしい方法でしばしば使用される顔認識のような生体認証システムの監査においてさらに顕著である。
商業的な顔処理技術の監査を行う場合,特に5つの倫理的懸念点を提示し,監査者が意識すべき設計上の考慮点と倫理的緊張点を強調して,監査システムによって伝播する害を悪化させ,補うことのないようにした。
私たちはさらに,これらの懸念の具体的イラストを提供して,これらの懸念がアルゴリズム監査の役割に与える影響と,それらが明らかにする基本的な製品制限を振り返って締めくくっています。
関連論文リスト
- Beyond the Checkbox: Strengthening DSA Compliance Through Social Media Algorithmic Auditing [7.686169912623941]
アルゴリズムプラットフォームは、アルゴリズムの透明性、ユーザ保護、プライバシに関する義務を遵守する必要がある。
現在の監査プラクティスや、そのようなコンプライアンスを確保する上での有効性については、ほとんど分かっていない。
分析の結果,AIを用いたシステム評価における方法論の矛盾や技術的深度の欠如が示唆された。
我々は,コンプライアンス評価の深さ,規模,独立性を高めるために,アルゴリズム監査を採用することを提案する。
論文 参考訳(メタデータ) (2026-01-26T12:00:29Z) - SAFE-QAQ: End-to-End Slow-Thinking Audio-Text Fraud Detection via Reinforcement Learning [52.29460857893198]
既存の不正検出方法は、書き起こされたテキストに依存しており、ASRのエラーや、声調や環境条件のような重要な音響的手がかりが欠けている。
音声に基づくスロー思考詐欺検出のためのエンドツーエンド包括的フレームワークSAFE-QAQを提案する。
本フレームワークは,ライブコール中に動的リスクアセスメントフレームワークを導入し,不正の早期検出と防止を可能にする。
論文 参考訳(メタデータ) (2026-01-04T06:09:07Z) - The Need for Benchmarks to Advance AI-Enabled Player Risk Detection in Gambling [0.0]
本稿では,プレイヤーのリスク検知システムのシステム評価を支援するための,概念的ベンチマークフレームワークを提案する。
プレイヤーのリスク検出システムの客観的、比較的、縦断的な評価を可能にすることが目的である。
論文 参考訳(メタデータ) (2025-11-26T18:30:43Z) - Emergent AI Surveillance: Overlearned Person Re-Identification and Its Mitigation in Law Enforcement Context [2.3124669700253553]
ジェネリック・インスタンス・サーチ・モデルは、犯罪捜査中の大規模な監視映像を分析するのに必要な手作業を大幅に削減し、特定の対象を法執行機関に回収する。
しかし、我々の研究は意図しない創発的能力を明らかにしている:オーバーラーニングによって、これらのモデルは、人間の被験者なしでデータセットで訓練された場合でも、特定の個人を選別することができる。
この能力は、個人の個人データに基づいた個人識別とプロファイリングに関する懸念を提起する。
論文 参考訳(メタデータ) (2025-10-07T15:23:16Z) - Partial Identification Approach to Counterfactual Fairness Assessment [50.88100567472179]
未知の対実的公正度尺度を高い信頼性で有界化するためのベイズ的アプローチを導入する。
以上の結果から、人種をアフリカ系アメリカ人に転換する際のCompASスコアに対する肯定的な(不快な)効果と、若年から高齢に移行する際の否定的な(直接的な因果関係)効果が明らかとなった。
論文 参考訳(メタデータ) (2025-09-30T18:35:08Z) - Monitoring Violations of Differential Privacy over Time [3.3900431852643114]
開発や展開の過程で変化を経験できるメカニズムの持続的な監査について検討する。
最先端の(静的な)監査を何度も実行するには、過剰なサンプリング努力が必要である。
本稿では,アルゴリズムの展開履歴全体から情報を抽出する新しいモニタリング手法を提案する。
論文 参考訳(メタデータ) (2025-09-24T16:15:51Z) - Oblivious Digital Tokens [11.423326973456438]
コンピュータ装置は、通常、ユニークな測定可能な振る舞いを示すか、秘密の知識を証明することによって、自分自身を識別する。
サイバー・コンフリクトの間、デジタルリソースを保護するために赤十字国際委員会が最近提案したデジタルエンブレムの文脈において、この問題が自然に発生するかを示す。
この新たな重要かつオープンな問題に対処するために、我々はOblivious Digital Token (ODT)と呼ばれる新しいプリミティブを定義します。
論文 参考訳(メタデータ) (2025-03-05T13:34:31Z) - From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - A Game-Theoretic Analysis of Auditing Differentially Private Algorithms with Epistemically Disparate Herd [16.10098472773814]
本研究は,Stackelbergゲームアプローチを用いたアルゴリズム開発者に対する群集監査の効果について検討する。
透明性と説明責任を高めることで、Hed auditはプライバシ保護アルゴリズムの責任ある開発に寄与する。
論文 参考訳(メタデータ) (2024-04-24T20:34:27Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Justice in Misinformation Detection Systems: An Analysis of Algorithms,
Stakeholders, and Potential Harms [2.5372245630249632]
誤情報検出パイプラインにおける3つのアルゴリズム段階の利害関係者に対して、不正がいかに有効であるかを示す。
この枠組みは、研究者、政策立案者、そして実践者がアルゴリズムの誤情報検出に関連する潜在的な害やリスクを判断するのに役立つだろう。
論文 参考訳(メタデータ) (2022-04-28T15:31:13Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Fairness for Unobserved Characteristics: Insights from Technological
Impacts on Queer Communities [7.485814345656486]
性的指向と性同一性は、観察されない特性の原型例である。
アルゴリズム的公平性に対する新しいアプローチは、観測される特性の一般的な仮定から切り離される。
論文 参考訳(メタデータ) (2021-02-03T18:52:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。