論文の概要: Law and the Emerging Political Economy of Algorithmic Audits
- arxiv url: http://arxiv.org/abs/2406.11855v1
- Date: Wed, 3 Apr 2024 19:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 07:40:34.605080
- Title: Law and the Emerging Political Economy of Algorithmic Audits
- Title(参考訳): アルゴリズム監査の法と新たな政治経済
- Authors: Petros Terzis, Michael Veale, Noëlle Gaumann,
- Abstract要約: デジタルサービス法(DSA)とオンライン安全法(OSA)は、テクノロジー企業や(伝統的に)監査人がアルゴリズム監査の実践を開発する枠組みを確立している。
本稿では,DSAとOSAにおける監査規定を,アルゴリズム監査の新興産業からの観測を踏まえて体系的にレビューする。
我々は、アルゴリズム監査の野心的な研究アイデアと技術プロジェクトは、従来の監査員の標準化によって崩壊する可能性があることを警告する。
- 参考スコア(独自算出の注目度): 1.3654846342364302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For almost a decade now, scholarship in and beyond the ACM FAccT community has been focusing on novel and innovative ways and methodologies to audit the functioning of algorithmic systems. Over the years, this research idea and technical project has matured enough to become a regulatory mandate. Today, the Digital Services Act (DSA) and the Online Safety Act (OSA) have established the framework within which technology corporations and (traditional) auditors will develop the `practice' of algorithmic auditing thereby presaging how this `ecosystem' will develop. In this paper, we systematically review the auditing provisions in the DSA and the OSA in light of observations from the emerging industry of algorithmic auditing. Who is likely to occupy this space? What are some political and ethical tensions that are likely to arise? How are the mandates of `independent auditing' or `the evaluation of the societal context of an algorithmic function' likely to play out in practice? By shaping the picture of the emerging political economy of algorithmic auditing, we draw attention to strategies and cultures of traditional auditors that risk eroding important regulatory pillars of the DSA and the OSA. Importantly, we warn that ambitious research ideas and technical projects of/for algorithmic auditing may end up crashed by the standardising grip of traditional auditors and/or diluted within a complex web of (sub-)contractual arrangements, diverse portfolios, and tight timelines.
- Abstract(参考訳): 約10年間、ACM FAccTコミュニティ内外の奨学金は、アルゴリズムシステムの機能を監査するための、新しく革新的な方法と方法論に焦点を当ててきた。
長年にわたり、この研究のアイデアと技術プロジェクトは十分に成熟し、規制委任状になった。
今日では、デジタルサービス法(DSA)とオンライン安全法(OSA)が、テクノロジー企業や(伝統的に)監査人がアルゴリズム監査の「実践」を開発して、この「生態系」がどのように発展するかを先取りする枠組みを確立している。
本稿では,DSA と OSA における監査規定を,アルゴリズム監査の新興産業からの観測から体系的に検討する。
誰がこの空間を占有するでしょう。
政治的・倫理的な緊張が生じる可能性はあるのか?
非依存的な監査」や「アルゴリズム関数の社会的文脈の評価」の義務は実際どのように機能するか?
アルゴリズム監査の政治経済の台頭を図り、DSAとOSAの重要な規制柱を侵食するリスクを負う従来の監査人の戦略や文化に注意を向ける。
重要なことは、アルゴリズムによる監査のための野心的な研究のアイデアと技術プロジェクトは、従来の監査役の標準化によって崩壊し、(サブ)コントラクショナルなアレンジ、多様なポートフォリオ、タイトなタイムラインの複雑なウェブに希釈される可能性があるということです。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Auditing of AI: Legal, Ethical and Technical Approaches [0.0]
AI監査は、研究と実践の急速に成長している分野である。
AI監査に対する異なるアプローチには、さまざまな余裕と制約がある。
AIガバナンスメカニズムとしての監査の進化における次のステップは、これらの利用可能なアプローチのインターリンクであるべきです。
論文 参考訳(メタデータ) (2024-07-07T12:49:58Z) - A Framework for Assurance Audits of Algorithmic Systems [2.2342503377379725]
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
AI監査も同様に、AI組織が人間の価値を害し、維持する方法でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と私たちは主張する。
我々は、より成熟した金融監査産業の実践をAI監査に適用する上でのメリット、固有の制限、実装上の課題について、批判的な議論をすることで締めくくります。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance [3.8997087223115634]
我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
論文 参考訳(メタデータ) (2022-06-09T19:18:47Z) - An Uncommon Task: Participatory Design in Legal AI [64.54460979588075]
われわれは10年以上前に行われた法律分野における、注目に値する、未調査のAI設計プロセスについて検討する。
インタラクティブなシミュレーション手法によって,コンピュータ科学者と弁護士が共同設計者になれることを示す。
論文 参考訳(メタデータ) (2022-03-08T15:46:52Z) - Audit and Assurance of AI Algorithms: A framework to ensure ethical
algorithmic practices in Artificial Intelligence [0.0]
アメリカには、厳格な法律の禁止や、損傷を測定するための特定のプロトコルが欠けている。
自動運転車や銀行から医療、住宅、そして法的な決定に至るまで、もうすぐ膨大な量のアルゴリズムが存在する。
政府、企業、社会はアルゴリズム監査を受け、アルゴリズムが合法的で倫理的かつ安全であることを体系的に検証する。
論文 参考訳(メタデータ) (2021-07-14T15:16:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。