論文の概要: Proposing an Interactive Audit Pipeline for Visual Privacy Research
- arxiv url: http://arxiv.org/abs/2111.03984v1
- Date: Sun, 7 Nov 2021 01:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 09:08:13.562572
- Title: Proposing an Interactive Audit Pipeline for Visual Privacy Research
- Title(参考訳): 視覚プライバシ研究のための対話型監査パイプラインの提案
- Authors: Jasmine DeHart, Chenguang Xu, Lisa Egede, Christan Grant
- Abstract要約: 我々は、システムにおけるバイアスと公平性の問題を発見し、責任ある人間対ループの必要性を主張し、有害な社会的影響を持つ研究課題を探求する必要性を反映するために公正性を利用することについて議論する。
私たちの目標は、視覚的プライバシとバイアスの問題に対して、機械学習パイプラインの体系的な分析を提供することです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In an ideal world, deployed machine learning models will enhance our society.
We hope that those models will provide unbiased and ethical decisions that will
benefit everyone. However, this is not always the case; issues arise from the
data curation process to the models' deployment. The continued use of biased
datasets and processes will adversely damage communities and increase the cost
to fix the problem. In this work, we walk through the decision process that a
researcher will need to make before, during, and after their project to
consider the broader impacts of research and the community. Throughout this
paper, we observe the critical decisions that are often overlooked when
deploying AI, argue for the use of fairness forensics to discover bias and
fairness issues in systems, assert the need for a responsible
human-over-the-loop to bring accountability into the deployed system, and
finally, reflect on the need to explore research agendas that have harmful
societal impacts. We examine visual privacy research and draw lessons that can
apply broadly to Artificial Intelligence. Our goal is to provide a systematic
analysis of the machine learning pipeline for visual privacy and bias issues.
With this pipeline, we hope to raise stakeholder (e.g., researchers, modelers,
corporations) awareness as these issues propagate in the various machine
learning phases.
- Abstract(参考訳): 理想的な世界では、デプロイされた機械学習モデルが私たちの社会を強化します。
これらのモデルが全員に利益をもたらす、偏見のない倫理的な決定を提供することを期待しています。
しかし、これは必ずしもそうではない。問題は、データキュレーションプロセスからモデルのデプロイメントに発生する。
偏りのあるデータセットとプロセスの使用はコミュニティを害し、問題を解決するコストを増加させます。
本研究では,研究とコミュニティの幅広い影響を検討するために,プロジェクトの前後において研究者が行うべき意思決定プロセスについて検討する。
本稿では,ai導入時にしばしば見過ごされる決定を観察し,システム内のバイアスや公平性問題の発見にフェアネス・フォレンジス(fairness forensics)を用いること,デプロイされたシステムに説明責任を持たせるための責任あるヒューマン・オーバー・ザ・ループ(human-over-the-loop)の必要性を主張する。
我々は、視覚的プライバシーの研究を調べ、人工知能に広く応用できる教訓を引き出す。
私たちの目標は、視覚的プライバシとバイアスの問題に対して、マシンラーニングパイプラインの系統的分析を提供することです。
このパイプラインでは、さまざまな機械学習フェーズでこの問題が広まるにつれて、ステークホルダー(研究者、モデラー、企業など)の意識を高めたいと思っています。
関連論文リスト
- Ethical Challenges in Computer Vision: Ensuring Privacy and Mitigating Bias in Publicly Available Datasets [0.0]
本稿では,コンピュータビジョン技術の創造と展開に関する倫理的問題に光を当てることを目的とする。
コンピュータビジョンは医療、セキュリティシステム、貿易など多くの産業において重要なツールとなっている。
論文 参考訳(メタデータ) (2024-08-31T00:59:29Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - The Pursuit of Fairness in Artificial Intelligence Models: A Survey [2.124791625488617]
この調査は、研究者がAIシステムの公正性を促進する方法の相乗効果を提供する。
AIモデルのバイアスを軽減するために研究者が採用したアプローチとテクニックについて、徹底的な研究がなされている。
また、偏見付きモデルがユーザエクスペリエンスに与える影響や、そのようなモデルの開発とデプロイにおいて考慮すべき倫理的考慮についても調べます。
論文 参考訳(メタデータ) (2024-03-26T02:33:36Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z) - Social Responsibility of Algorithms [0.0]
論文は、このトピックに関する科学的研究の概要を簡潔に述べ、このような自律的なアーティファクトの開発、存在、使用は、機械学習独占人工知能に対する最近の関心よりもずっと古いことを示している。
論文 参考訳(メタデータ) (2020-12-06T16:46:14Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。