論文の概要: Bias and Fairness in Computer Vision Applications of the Criminal
Justice System
- arxiv url: http://arxiv.org/abs/2208.03209v1
- Date: Fri, 5 Aug 2022 14:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:47:38.119116
- Title: Bias and Fairness in Computer Vision Applications of the Criminal
Justice System
- Title(参考訳): 刑事司法システムのコンピュータビジョン応用におけるバイアスと公正性
- Authors: Sophie Noiret, Jennifer Lumetzberger, Martin Kampel
- Abstract要約: AIによる警察活動に関わる差別的慣行は、多くの議論の対象となっている。
これらの実践がいかにして存在するか、そしてそれらの緩和の難しさについて検討する。
次に、現在開発中の3つのアプリケーションを調べて、彼らが公正に影響を及ぼすリスクと、それらのリスクを緩和する方法について理解します。
- 参考スコア(独自算出の注目度): 1.7188280334580197
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Discriminatory practices involving AI-driven police work have been the
subject of much controversies in the past few years, with algorithms such as
COMPAS, PredPol and ShotSpotter being accused of unfairly impacting minority
groups. At the same time, the issues of fairness in machine learning, and in
particular in computer vision, have been the subject of a growing number of
academic works. In this paper, we examine how these area intersect. We provide
information on how these practices have come to exist and the difficulties in
alleviating them. We then examine three applications currently in development
to understand what risks they pose to fairness and how those risks can be
mitigated.
- Abstract(参考訳): aiによる警察活動を含む差別的行為は、ここ数年多くの論争の対象となり、compas、predpol、shotspotterなどのアルゴリズムが少数派グループに不公平な影響を及ぼしたとして非難されている。
同時に、機械学習における公平性の問題、特にコンピュータビジョンは、多くの学術研究の対象となっている。
本稿では,これらの領域がどのように交わるかを考察する。
我々は、これらのプラクティスがいかに存在してきたか、そしてそれらの緩和の難しさに関する情報を提供する。
次に,現在開発中の3つのアプリケーションについて検討し,公平性に対するリスクと,それらのリスクを軽減する方法について検討する。
関連論文リスト
- Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - A Survey on Intersectional Fairness in Machine Learning: Notions,
Mitigation, and Challenges [11.885166133818819]
機械学習システムの採用により、公平性への懸念が高まっている。
公平さと緩和の交叉観念に関する分類を提示する。
重要な課題を特定し、今後の方向性に関するガイドラインを研究者に提供する。
論文 参考訳(メタデータ) (2023-05-11T16:49:22Z) - A survey of Identification and mitigation of Machine Learning
algorithmic biases in Image Analysis [3.0892724364965005]
バイアスは、機械学習が画像などの高次元インプットに基づいている現代の産業的および安全クリティカルなアプリケーションを変えることができる。
しかしこの問題は、主に機械学習の文献で注目されている。
望ましくないバイアスに関連する変数は、実際には入力データに間接的に表現されるか、不明である。
これにより、AIベースのソリューションの商用展開に対する、真面目で確固たる懸念が持ち上がる。
論文 参考訳(メタデータ) (2022-10-10T08:40:32Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。