論文の概要: Algorithmic Auditing and Social Justice: Lessons from the History of
Audit Studies
- arxiv url: http://arxiv.org/abs/2109.06974v1
- Date: Tue, 14 Sep 2021 21:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 02:45:31.708766
- Title: Algorithmic Auditing and Social Justice: Lessons from the History of
Audit Studies
- Title(参考訳): アルゴリズムによる監査と社会正義--監査研究の歴史から学ぶ
- Authors: Briana Vecchione, Solon Barocas, Karen Levy
- Abstract要約: アルゴリズム監査は、社会技術システムの機能と結果を調べるためのツールとして受け入れられてきた。
我々はこの歴史から、社会科学監査の展開を形作る困難な緊張を浮き彫りにした。
我々は,社会技術システムの堅牢かつ活発な評価の開発を支援するため,考察を行った。
- 参考スコア(独自算出の注目度): 2.267625269854973
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Algorithmic audits have been embraced as tools to investigate the functioning
and consequences of sociotechnical systems. Though the term is used somewhat
loosely in the algorithmic context and encompasses a variety of methods, it
maintains a close connection to audit studies in the social sciences--which
have, for decades, used experimental methods to measure the prevalence of
discrimination across domains like housing and employment. In the social
sciences, audit studies originated in a strong tradition of social justice and
participatory action, often involving collaboration between researchers and
communities; but scholars have argued that, over time, social science audits
have become somewhat distanced from these original goals and priorities. We
draw from this history in order to highlight difficult tensions that have
shaped the development of social science audits, and to assess their
implications in the context of algorithmic auditing. In doing so, we put forth
considerations to assist in the development of robust and engaged assessments
of sociotechnical systems that draw from auditing's roots in racial equity and
social justice.
- Abstract(参考訳): アルゴリズム監査は、社会技術システムの機能と結果を調べるためのツールとして受け入れられてきた。
この用語はアルゴリズム的な文脈で多少緩やかに使われ、様々な方法を含んでいるが、何十年もの間、住宅や雇用といった分野における差別の流行を計測するために実験的な手法を使用してきた社会科学の監査研究と密接な関係を保っている。
社会科学において、監査研究は社会正義と参加行動の強い伝統から始まり、研究者とコミュニティの協力がしばしば関係している。
この歴史から,社会科学監査の発展を形作る困難な緊張感を浮き彫りにし,アルゴリズム監査の文脈におけるその影響を評価する。
そこで我々は、人種的平等と社会正義に根ざした監査のルーツを生かした、堅牢で活発な社会技術システム評価の開発を支援するための検討を行った。
関連論文リスト
- Multi-agent cooperation through learning-aware policy gradients [53.63948041506278]
利己的な個人はしばしば協力に失敗し、マルチエージェント学習の根本的な課題を提起する。
本稿では,学習型強化学習のための,偏見のない高導出性ポリシー勾配アルゴリズムを提案する。
我々は, 受刑者のジレンマから, 自己関心のある学習エージェントの間でどのように, いつ, 協力関係が生じるかの新たな説明を得た。
論文 参考訳(メタデータ) (2024-10-24T10:48:42Z) - Auditing of AI: Legal, Ethical and Technical Approaches [0.0]
AI監査は、研究と実践の急速に成長している分野である。
AI監査に対する異なるアプローチには、さまざまな余裕と制約がある。
AIガバナンスメカニズムとしての監査の進化における次のステップは、これらの利用可能なアプローチのインターリンクであるべきです。
論文 参考訳(メタデータ) (2024-07-07T12:49:58Z) - Are we making progress in unlearning? Findings from the first NeurIPS unlearning competition [70.60872754129832]
アンラーニングに関する最初のNeurIPSコンペティションは、新しいアルゴリズムの開発を刺激しようとした。
世界中から約1200チームが参加した。
トップソリューションを分析し、アンラーニングのベンチマークに関する議論を掘り下げます。
論文 参考訳(メタデータ) (2024-06-13T12:58:00Z) - Law and the Emerging Political Economy of Algorithmic Audits [1.3654846342364302]
デジタルサービス法(DSA)とオンライン安全法(OSA)は、テクノロジー企業や(伝統的に)監査人がアルゴリズム監査の実践を開発する枠組みを確立している。
本稿では,DSAとOSAにおける監査規定を,アルゴリズム監査の新興産業からの観測を踏まえて体系的にレビューする。
我々は、アルゴリズム監査の野心的な研究アイデアと技術プロジェクトは、従来の監査員の標準化によって崩壊する可能性があることを警告する。
論文 参考訳(メタデータ) (2024-04-03T19:45:30Z) - The Fairness Fair: Bringing Human Perception into Collective
Decision-Making [16.300744216179545]
我々は、公正な解決策は、社会プランナー(設計者)によって望ましいものとみなすだけでなく、人間と社会的認知によって統治されるべきであると主張している。
この目標を達成するには、コンピューティングやAIから行動経済学、人間とAIの相互作用まで幅広い学際的なアプローチが必要かについて議論する。
論文 参考訳(メタデータ) (2023-12-22T03:06:24Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Entity Graph Extraction from Legal Acts -- a Prototype for a Use Case in
Policy Design Analysis [52.77024349608834]
本稿では,公共政策設計の定量的研究を支援するために開発されたプロトタイプについて述べる。
本システムの目的は,法律文書の収集プロセスの自動化,機関文法の注釈付け,ハイパーグラフによる重要機関間の相互関係の分析である。
論文 参考訳(メタデータ) (2022-09-02T10:57:47Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - AI & Racial Equity: Understanding Sentiment Analysis Artificial
Intelligence, Data Security, and Systemic Theory in Criminal Justice Systems [0.0]
人種的体系的不正を悪化または減少させる人工知能の様々な形態が研究されている。
これは、歴史的体系的パターン、暗黙の偏見、既存のアルゴリズム的リスク、そして自然言語処理に基づくAI(リスク評価ツールなど)が人種的に異なる結果をもたらすという法的意味を通じて主張されている。
人種的に不正な結果や慣行から逸脱するためには、内部の機関や企業がアルゴリズム、プライバシーおよびセキュリティリスクをどのように活用するかを規制し、規制するために、より訴訟的な政策が必要であると結論付けている。
論文 参考訳(メタデータ) (2022-01-03T19:42:08Z) - Problematic Machine Behavior: A Systematic Literature Review of
Algorithm Audits [0.0]
このレビューは、PRISMAガイドラインに従い、62のアルゴリズム監査研究を生んだ500以上の英文記事のレビューです。
研究は、主に行動(差別、歪み、搾取、誤判定)によって合成され、組織されます。
この論文は、監査の成功の共通要素を提供し、幅広い研究の文脈でアルゴリズム監査について議論することで締めくくっている。
論文 参考訳(メタデータ) (2021-02-03T19:21:11Z) - Social Engagement versus Learning Engagement -- An Exploratory Study of
FutureLearn Learners [61.58283466715385]
大規模なオープンオンラインコース (MOOCs) は増加傾向にあるが、エンロリーのごく一部しかMOOCsを完了していない。
この研究は、MOOCにおける研究の進展とともに、学習者がピアとどのように相互作用するかに特に関係している。
この研究は、社会的構成主義的アプローチを採用し、協調学習を促進するFutureLearnプラットフォーム上で行われた。
論文 参考訳(メタデータ) (2020-08-11T16:09:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。