論文の概要: The right to audit and power asymmetries in algorithm auditing
- arxiv url: http://arxiv.org/abs/2302.08301v1
- Date: Thu, 16 Feb 2023 13:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:13:41.046303
- Title: The right to audit and power asymmetries in algorithm auditing
- Title(参考訳): アルゴリズム監査における非対称性の監査と電力権
- Authors: Aleksandra Urman, Ivan Smirnov, Jana Lasser
- Abstract要約: IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we engage with and expand on the keynote talk about the Right
to Audit given by Prof. Christian Sandvig at the IC2S2 2021 through a critical
reflection on power asymmetries in the algorithm auditing field. We elaborate
on the challenges and asymmetries mentioned by Sandvig - such as those related
to legal issues and the disparity between early-career and senior researchers.
We also contribute a discussion of the asymmetries that were not covered by
Sandvig but that we find critically important: those related to other
disparities between researchers, incentive structures related to the access to
data from companies, targets of auditing and users and their rights. We also
discuss the implications these asymmetries have for algorithm auditing research
such as the Western-centrism and the lack of the diversity of perspectives.
While we focus on the field of algorithm auditing specifically, we suggest some
of the discussed asymmetries affect Computational Social Science more generally
and need to be reflected on and addressed.
- Abstract(参考訳): 本稿では,IC2S2 2021において,Christian Sandvig教授が行った監査に対する権利に関する基調講演を,アルゴリズム監査分野におけるパワー対称性の批判的考察を通じて開催し,拡張する。
sandvigが言及する課題と非対称性について詳しく説明する。法律問題に関連する問題や、アーリーケアと上級研究者の格差などだ。
sandvigがカバーしていない非対称性についても議論していますが、重要な点は、研究者間の他の格差に関連するもの、企業データへのアクセスに関するインセンティブ構造、監査対象、ユーザとその権利です。
また、これらの対称性が西洋中心主義や視点の多様性の欠如といったアルゴリズム監査研究に与える影響についても論じる。
我々は特にアルゴリズム監査の分野に焦点をあてるが、議論されているいくつかの対称性がより一般的に計算社会科学に影響を与え、それを反映し対処する必要があることを示唆する。
関連論文リスト
- Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - Algorithmic Fairness in Business Analytics: Directions for Research and
Practice [24.309795052068388]
本稿では,アルゴリズムフェアネスの先見的,BAに着目したレビューを行う。
まず、バイアスの源泉と測定方法、およびバイアス緩和アルゴリズムに関する最先端の研究について概説する。
次に、ユーティリティ・フェアネスの関係について詳細な議論を行い、これらの2つの構成要素間のトレードオフの頻繁な仮定は、しばしば間違いまたは近視的であることを強調した。
論文 参考訳(メタデータ) (2022-07-22T10:21:38Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - A Validity Perspective on Evaluating the Justified Use of Data-driven
Decision-making Algorithms [14.96024118861361]
予測アルゴリズムの正当性を損なうような問題定式化やデータ問題における再検討問題に対して,妥当性のレンズを適用した。
これらの妥当性の考察が,予測タスクの正当性やデータの適合性に関する考察を促進・文書化することを目的とした,一連のハイレベルな質問にどのように掘り下げられるかを示す。
論文 参考訳(メタデータ) (2022-06-30T02:22:31Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Algorithmic audits of algorithms, and the law [3.9103337761169943]
対象アルゴリズムのユーザ側とのインタラクションによって実施される外部監査に注目した。
これらの監査が行われる法的な枠組みは、主にそれらを開発する研究者にとって曖昧である。
本稿では,アルゴリズム監査の進展する分野を構築するために,現在実施されている監査と法との関係を概説する。
論文 参考訳(メタデータ) (2022-02-15T14:20:53Z) - Problematic Machine Behavior: A Systematic Literature Review of
Algorithm Audits [0.0]
このレビューは、PRISMAガイドラインに従い、62のアルゴリズム監査研究を生んだ500以上の英文記事のレビューです。
研究は、主に行動(差別、歪み、搾取、誤判定)によって合成され、組織されます。
この論文は、監査の成功の共通要素を提供し、幅広い研究の文脈でアルゴリズム監査について議論することで締めくくっている。
論文 参考訳(メタデータ) (2021-02-03T19:21:11Z) - Saving Face: Investigating the Ethical Concerns of Facial Recognition
Auditing [17.42753238926119]
アルゴリズムによる監査は 人口を危険にさらす 効果があります これらの手段は 保護を意図しています
本稿では,商業的な顔処理技術の監査を行う場合の倫理的懸念点を5つ挙げる。
さらに、これらの懸念の具体的な図示を提供し、これらの懸念がアルゴリズム監査の役割に何を意味するのか、そしてそれらが明らかにする基本的な製品制限を反映して結論付けます。
論文 参考訳(メタデータ) (2020-01-03T20:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。