論文の概要: Algorithmic Auditing and Social Justice: Lessons from the History of
Audit Studies
- arxiv url: http://arxiv.org/abs/2109.06974v1
- Date: Tue, 14 Sep 2021 21:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 02:45:31.708766
- Title: Algorithmic Auditing and Social Justice: Lessons from the History of
Audit Studies
- Title(参考訳): アルゴリズムによる監査と社会正義--監査研究の歴史から学ぶ
- Authors: Briana Vecchione, Solon Barocas, Karen Levy
- Abstract要約: アルゴリズム監査は、社会技術システムの機能と結果を調べるためのツールとして受け入れられてきた。
我々はこの歴史から、社会科学監査の展開を形作る困難な緊張を浮き彫りにした。
我々は,社会技術システムの堅牢かつ活発な評価の開発を支援するため,考察を行った。
- 参考スコア(独自算出の注目度): 2.267625269854973
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Algorithmic audits have been embraced as tools to investigate the functioning
and consequences of sociotechnical systems. Though the term is used somewhat
loosely in the algorithmic context and encompasses a variety of methods, it
maintains a close connection to audit studies in the social sciences--which
have, for decades, used experimental methods to measure the prevalence of
discrimination across domains like housing and employment. In the social
sciences, audit studies originated in a strong tradition of social justice and
participatory action, often involving collaboration between researchers and
communities; but scholars have argued that, over time, social science audits
have become somewhat distanced from these original goals and priorities. We
draw from this history in order to highlight difficult tensions that have
shaped the development of social science audits, and to assess their
implications in the context of algorithmic auditing. In doing so, we put forth
considerations to assist in the development of robust and engaged assessments
of sociotechnical systems that draw from auditing's roots in racial equity and
social justice.
- Abstract(参考訳): アルゴリズム監査は、社会技術システムの機能と結果を調べるためのツールとして受け入れられてきた。
この用語はアルゴリズム的な文脈で多少緩やかに使われ、様々な方法を含んでいるが、何十年もの間、住宅や雇用といった分野における差別の流行を計測するために実験的な手法を使用してきた社会科学の監査研究と密接な関係を保っている。
社会科学において、監査研究は社会正義と参加行動の強い伝統から始まり、研究者とコミュニティの協力がしばしば関係している。
この歴史から,社会科学監査の発展を形作る困難な緊張感を浮き彫りにし,アルゴリズム監査の文脈におけるその影響を評価する。
そこで我々は、人種的平等と社会正義に根ざした監査のルーツを生かした、堅牢で活発な社会技術システム評価の開発を支援するための検討を行った。
関連論文リスト
- The Fairness Fair: Bringing Human Perception into Collective
Decision-Making [16.300744216179545]
我々は、公正な解決策は、社会プランナー(設計者)によって望ましいものとみなすだけでなく、人間と社会的認知によって統治されるべきであると主張している。
この目標を達成するには、コンピューティングやAIから行動経済学、人間とAIの相互作用まで幅広い学際的なアプローチが必要かについて議論する。
論文 参考訳(メタデータ) (2023-12-22T03:06:24Z) - The Sentiment Problem: A Critical Survey towards Deconstructing
Sentiment Analysis [9.379013474854776]
本研究では,感情分析(SA)の社会技術的側面について,その応用,モデル,データセットに関する189の査読論文を批判的に検討する。
感情に関する社会学的・技術的文献を掘り下げることで、金融、政府、医療などの分野において、この用語の明確な概念化を明らかにした。
我々の研究は、感情を特徴づける明確な定義と枠組みの欠如を露呈し、潜在的な課題とバイアスをもたらす。
論文 参考訳(メタデータ) (2023-10-18T20:42:44Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Entity Graph Extraction from Legal Acts -- a Prototype for a Use Case in
Policy Design Analysis [52.77024349608834]
本稿では,公共政策設計の定量的研究を支援するために開発されたプロトタイプについて述べる。
本システムの目的は,法律文書の収集プロセスの自動化,機関文法の注釈付け,ハイパーグラフによる重要機関間の相互関係の分析である。
論文 参考訳(メタデータ) (2022-09-02T10:57:47Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Didn't see that coming: a survey on non-verbal social human behavior
forecasting [47.99589136455976]
近年,非言語的社会的行動予測が研究コミュニティの関心を集めている。
人間とロボットの相互作用や社会的に認識された人間のモーション生成への直接的な応用は、非常に魅力的な分野である。
本稿では,複数の対話エージェントに対する行動予測問題を,社会的信号予測と人間の動作予測の分野の統合を目的とした汎用的な方法で定義する。
論文 参考訳(メタデータ) (2022-03-04T18:25:30Z) - AI & Racial Equity: Understanding Sentiment Analysis Artificial
Intelligence, Data Security, and Systemic Theory in Criminal Justice Systems [0.0]
人種的体系的不正を悪化または減少させる人工知能の様々な形態が研究されている。
これは、歴史的体系的パターン、暗黙の偏見、既存のアルゴリズム的リスク、そして自然言語処理に基づくAI(リスク評価ツールなど)が人種的に異なる結果をもたらすという法的意味を通じて主張されている。
人種的に不正な結果や慣行から逸脱するためには、内部の機関や企業がアルゴリズム、プライバシーおよびセキュリティリスクをどのように活用するかを規制し、規制するために、より訴訟的な政策が必要であると結論付けている。
論文 参考訳(メタデータ) (2022-01-03T19:42:08Z) - Problematic Machine Behavior: A Systematic Literature Review of
Algorithm Audits [0.0]
このレビューは、PRISMAガイドラインに従い、62のアルゴリズム監査研究を生んだ500以上の英文記事のレビューです。
研究は、主に行動(差別、歪み、搾取、誤判定)によって合成され、組織されます。
この論文は、監査の成功の共通要素を提供し、幅広い研究の文脈でアルゴリズム監査について議論することで締めくくっている。
論文 参考訳(メタデータ) (2021-02-03T19:21:11Z) - Social Engagement versus Learning Engagement -- An Exploratory Study of
FutureLearn Learners [61.58283466715385]
大規模なオープンオンラインコース (MOOCs) は増加傾向にあるが、エンロリーのごく一部しかMOOCsを完了していない。
この研究は、MOOCにおける研究の進展とともに、学習者がピアとどのように相互作用するかに特に関係している。
この研究は、社会的構成主義的アプローチを採用し、協調学習を促進するFutureLearnプラットフォーム上で行われた。
論文 参考訳(メタデータ) (2020-08-11T16:09:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。