論文の概要: Retrofitters, pragmatists and activists: Public interest litigation for accountable automated decision-making
- arxiv url: http://arxiv.org/abs/2511.03211v2
- Date: Fri, 07 Nov 2025 01:37:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 12:50:39.962851
- Title: Retrofitters, pragmatists and activists: Public interest litigation for accountable automated decision-making
- Title(参考訳): リトロフィッター、プラグマティスト、活動家:説明責任のある自動意思決定に関する公益訴訟
- Authors: Henry Fraser, Zahra Stardust,
- Abstract要約: 本稿では,オーストラリアにおけるAIと自動意思決定(ADM)のアカウンタビリティ向上における公益訴訟の役割について検討する。
ADM規制は地政学的風に直面するため、効果的なガバナンスは、少なくとも一部は既存の法律の施行に依存しなければならない。
この論文は、法律と技術学者、ADMによる損害を受けた個人とグループ、公益訴訟家および技術弁護士、市民社会と擁護団体、および政策立案者に関するものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper examines the role of public interest litigation in promoting accountability for AI and automated decision-making (ADM) in Australia. Since ADM regulation faces geopolitical headwinds, effective governance will have to rely at least in part on the enforcement of existing laws. Drawing on interviews with Australian public interest litigators, technology policy activists, and technology law scholars, the paper positions public interest litigation as part of a larger ecosystem for transparency, accountability and justice with respect to ADM. It builds on one participant's characterisation of litigation about ADM as an exercise in legal retrofitting: adapting old laws to new circumstances. The paper's primary contribution is to aggregate, organise and present original insights on pragmatic strategies and tactics for effective public interest litigation about ADM. Naturally, it also contends with the limits of these strategies, and of the Australian legal system. Where limits are, however, capable of being overcome, the paper presents findings on urgent needs: the enabling institutional arrangements without which effective litigation and accountability will falter. The paper is relevant to law and technology scholars; individuals and groups harmed by ADM; public interest litigators and technology lawyers; civil society and advocacy organisations; and policymakers.
- Abstract(参考訳): 本稿では,オーストラリアにおけるAIと自動意思決定(ADM)のアカウンタビリティ向上における公益訴訟の役割について検討する。
ADM規制は地政学的風に直面するため、効果的なガバナンスは、少なくとも一部は既存の法律の施行に依存しなければならない。
オーストラリアの公益訴訟家、技術政策活動家、技術法学者とのインタビューに基づき、ADMに関する透明性、説明責任、正義のより大きなエコシステムの一部として、公益訴訟を位置づけている。これは、ある参加者が ADM に関する訴訟を法的再調整の演習として、新しい状況に古い法律を適応させるという特徴に基づいている。
本論文の主な貢献は、ADMに関する効果的な公益訴訟のための実用的戦略と戦術に関する独自の知見を収集、整理、提示することである。
しかし, 限界が克服可能な状況において, 本論文は, 効果的な訴訟や説明責任を損なうことなく, 制度的な取決めを可能にするという, 緊急ニーズに関する知見を提示する。
この論文は、法律と技術学者、ADMによる損害を受けた個人とグループ、公益訴訟家および技術弁護士、市民社会と擁護団体、および政策立案者に関するものである。
関連論文リスト
- Advancing Science- and Evidence-based AI Policy [163.43609502905707]
本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
論文 参考訳(メタデータ) (2025-08-02T23:20:58Z) - Achieving Socio-Economic Parity through the Lens of EU AI Act [11.550643687258738]
不公平な治療と差別は、AIシステムにおいて重要な倫理的関心事である。
最近のEU AI Actの導入は、AIイノベーションと投資の法的確実性を保証するための統一された法的枠組みを確立している。
本稿では、社会経済状態(SES)を取り入れた新たな公正概念である社会経済パリティ(SEP)を提案し、未成年集団に対する肯定的な行動を促進する。
論文 参考訳(メタデータ) (2025-03-29T12:27:27Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - How Do AI Companies "Fine-Tune" Policy? Examining Regulatory Capture in AI Governance [0.7252636622264104]
アメリカ合衆国の産業俳優は、汎用人工知能(AI)システムの規制に広範囲に影響を及ぼしてきた。
AI開発者とデプロイ担当者によるAIポリシーの取得は、汎用AIシステムの安全性、公正性、便益性、透明性、革新を保証するような規制上の目標を妨げうる。
専門家は、主に、AI規制の欠如、弱い規制、あるいは他者よりも特定の政策目標を過度に強調する規制の欠如につながる捕獲に関心を持っていた。
論文 参考訳(メタデータ) (2024-10-16T21:06:54Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Imposing Regulation on Advanced Algorithms [0.0]
本書は、行政上の決定と司法上の判決において、普遍的に適用可能なパターンについて考察している。
先進的なアルゴリズムに対する国家的かつ事実上の超国家的規制機関の役割と重要性を調査する。
ENISAは、ネットワークと情報セキュリティに焦点を当てたEU機関であり、欧州の高度なアルゴリズム規制機関の興味深い候補だと考えている。
論文 参考訳(メタデータ) (2020-05-16T20:26:54Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。