論文の概要: Problematic Machine Behavior: A Systematic Literature Review of
Algorithm Audits
- arxiv url: http://arxiv.org/abs/2102.04256v1
- Date: Wed, 3 Feb 2021 19:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:30:52.040460
- Title: Problematic Machine Behavior: A Systematic Literature Review of
Algorithm Audits
- Title(参考訳): 問題マシン動作:アルゴリズム監査に関する体系的文献レビュー
- Authors: Jack Bandy
- Abstract要約: このレビューは、PRISMAガイドラインに従い、62のアルゴリズム監査研究を生んだ500以上の英文記事のレビューです。
研究は、主に行動(差別、歪み、搾取、誤判定)によって合成され、組織されます。
この論文は、監査の成功の共通要素を提供し、幅広い研究の文脈でアルゴリズム監査について議論することで締めくくっている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While algorithm audits are growing rapidly in commonality and public
importance, relatively little scholarly work has gone toward synthesizing prior
work and strategizing future research in the area. This systematic literature
review aims to do just that, following PRISMA guidelines in a review of over
500 English articles that yielded 62 algorithm audit studies. The studies are
synthesized and organized primarily by behavior (discrimination, distortion,
exploitation, and misjudgement), with codes also provided for domain (e.g.
search, vision, advertising, etc.), organization (e.g. Google, Facebook,
Amazon, etc.), and audit method (e.g. sock puppet, direct scrape,
crowdsourcing, etc.). The review shows how previous audit studies have exposed
public-facing algorithms exhibiting problematic behavior, such as search
algorithms culpable of distortion and advertising algorithms culpable of
discrimination. Based on the studies reviewed, it also suggests some behaviors
(e.g. discrimination on the basis of intersectional identities), domains (e.g.
advertising algorithms), methods (e.g. code auditing), and organizations (e.g.
Twitter, TikTok, LinkedIn) that call for future audit attention. The paper
concludes by offering the common ingredients of successful audits, and
discussing algorithm auditing in the context of broader research working toward
algorithmic justice.
- Abstract(参考訳): アルゴリズム監査は、共通性と公的な重要性において急速に成長しているが、比較的学術的な研究は、先行研究の合成と、この分野における将来の研究の戦略に向かっている。
この体系的な文献レビューは、PRISMAガイドラインに従って、62のアルゴリズム監査研究を得た500以上の英語記事のレビューを行う。
これらの研究は、主に行動(差別、歪曲、搾取、誤判断)によって合成され組織化され、ドメイン(例えば、コード)も提供される。
検索、ビジョン、広告など。
)、組織(例)。
Google、Facebook、Amazonなど。
)と監査方法(例)。
sock puppet、direct scrape、crowdsourcingなど)。
このレビューは、従来の監査研究が、歪みの少ない検索アルゴリズムや差別の少ない広告アルゴリズムなど、問題のある行動を示す公的なアルゴリズムを公開する方法を示している。
レビューされた研究に基づいて、いくつかの行動(例)も示唆している。
交差点のアイデンティティに基づく差別、領域(例)
広告アルゴリズム、手法(例:広告アルゴリズム)
コード監査)と組織(例えば、)
Twitter、TikTok、LinkedIn)は将来の監査の注意を呼びかけている。
この論文は、成功監査の共通要素を提供し、アルゴリズムの正義に向けた幅広い研究の文脈において、アルゴリズム監査について議論することで締めくくっている。
関連論文リスト
- Whither Bias Goes, I Will Go: An Integrative, Systematic Review of Algorithmic Bias Mitigation [1.0470286407954037]
機械学習(ML)モデルは不平等をバイアスし、持続し、悪化させる可能性があるという懸念が高まっている。
本稿では,MLアセスメントを開発し,バイアス軽減手法を適用した4段階モデルを提案する。
論文 参考訳(メタデータ) (2024-10-21T02:32:14Z) - On the Detection of Reviewer-Author Collusion Rings From Paper Bidding [71.43634536456844]
衝突リングは、コンピュータサイエンスカンファレンスのピアレビューシステムに大きな脅威をもたらす。
この問題を解決する1つのアプローチは、操作された入札から衝突するレビュアーを検出することである。
衝突環の検出が可能であるという研究はまだ確立されていない。
論文 参考訳(メタデータ) (2024-02-12T18:12:09Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Language Model Decoding as Likelihood-Utility Alignment [54.70547032876017]
モデルの有効性がタスク固有の実用性の概念とどのように一致しているかについて、暗黙の仮定に基づいて、デコード戦略をグループ化する分類法を導入する。
具体的には、様々なタスクの集合における予測の可能性と有用性の相関を解析することにより、提案された分類を裏付ける最初の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-10-13T17:55:51Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - Everyday algorithm auditing: Understanding the power of everyday users
in surfacing harmful algorithmic behaviors [8.360589318502816]
本稿では,日常的なアルゴリズム監査の概念について検討し,問題のあるマシンの動作を検出し,理解し,疑問を呈するプロセスを提案する。
日常のユーザは、より集中的に組織された監査形態による検知を不要にする問題のあるマシン行動に直面するのに強力である、と我々は主張する。
論文 参考訳(メタデータ) (2021-05-06T21:50:47Z) - Algorithmic Fairness [11.650381752104298]
正確であるだけでなく、客観的かつ公正なAIアルゴリズムを開発することが不可欠である。
近年の研究では、アルゴリズムによる意思決定は本質的に不公平である可能性が示されている。
論文 参考訳(メタデータ) (2020-01-21T19:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。