論文の概要: Private Accountability in the Age of Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2601.17013v1
- Date: Wed, 14 Jan 2026 19:24:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 02:21:38.492883
- Title: Private Accountability in the Age of Artificial Intelligence
- Title(参考訳): 人工知能時代の私的説明責任
- Authors: Sonia Katyal,
- Abstract要約: 私は公民権保護と人工知能(AI)の差し迫った対立を探求する
AIの真の約束は、我々が明らかにする情報に当てはまるのではなく、技術、財産、公民権の相互作用に関する疑問に当てはまる。
民間産業と公民権の関係を調べることで、このプロセスにおける新しい世代の説明責任を開発できるかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this Article, I explore the impending conflict between the protection of civil rights and artificial intelligence (AI). While both areas of law have amassed rich and well-developed areas of scholarly work and doctrinal support, a growing body of scholars are interrogating the intersection between them. This Article argues that the issues surrounding algorithmic accountability demonstrate a deeper, more structural tension within a new generation of disputes regarding law and technology. As I argue, the true promise of AI does not lie in the information we reveal to one another, but rather in the questions it raises about the interaction of technology, property, and civil rights. For this reason, I argue that we are looking in the wrong place if we look only to the state to address issues of algorithmic accountability. Instead, we must turn to other ways to ensure more transparency and accountability that stem from private industry, rather than public regulation. The issue of algorithmic bias represents a crucial new world of civil rights concerns, one that is distinct in nature from the ones that preceded it. Since we are in a world where the activities of private corporations, rather than the state, are raising concerns about privacy, due process, and discrimination, we must focus on the role of private corporations in addressing the issue. Towards this end, I discuss a variety of tools to help eliminate the opacity of AI, including codes of conduct, impact statements, and whistleblower protection, which I argue carries the potential to encourage greater endogeneity in civil rights enforcement. Ultimately, by examining the relationship between private industry and civil rights, we can perhaps develop a new generation of forms of accountability in the process.
- Abstract(参考訳): 本稿では,公民権保護と人工知能(AI)の対立について検討する。
法律の両分野は、学術的な研究と教義的な支援の豊かで発達した領域を蓄積してきたが、学者の増大する団体は両者の交点を疑問視している。
本論では, アルゴリズム的説明責任をめぐる問題は, 法と技術に関する新たな世代の論争の中で, より深く, より構造的な緊張関係を示すものである,と論じる。
私が論じているように、AIの真の約束は、我々が明らかにする情報に当てはまるのではなく、技術、財産、公民権の相互作用に関する疑問に当てはまる。
このような理由から、私たちは、アルゴリズム的説明責任の問題に対処するために、状態のみに注目している場合、間違った場所に目を向けていると論じます。
代わりに、公共の規制ではなく、民間業界に由来する透明性と説明責任を確保するための他の方法に目を向ける必要があります。
アルゴリズムバイアスの問題は、市民権に関する重要な新しい世界を表している。
我々は、国家ではなく民間企業の活動がプライバシーやデュープロセス、差別に対する懸念を高めている世界にいるので、この問題に対処する民間企業の役割に焦点を合わせなければならない。
この目的に向けて、私は、行動規範、インパクトステートメント、告発者保護など、AIの不透明さを取り除くためのさまざまなツールについて議論します。
究極的には、民間産業と公民権の関係を調べることで、このプロセスにおける新しい世代の説明責任を開発することができる。
関連論文リスト
- From Slaves to Synths? Superintelligence and the Evolution of Legal Personality [0.0]
法制度は長い間、人格を非人間的存在に拡張するために開放されてきた。
論文は、超知能の最終的な発展は、我々の法自体の理解にパラダイムシフトを強いるかもしれないと主張している。
論文 参考訳(メタデータ) (2026-01-06T07:09:55Z) - Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - Generative AI regulation can learn from social media regulation [0.0]
生成的AI規制に関する議論は、ソーシャルメディア規制に関する議論や証拠によって情報が得られると私は主張する。
私は、その類似点と相違点を強調するために、生成的AIとソーシャルメディアの可利用性を比較して比較する。
ソーシャルメディアの進化と規制に基づく具体的な政策勧告について論じる。
論文 参考訳(メタデータ) (2024-12-15T23:00:29Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Unsettled Law: Time to Generate New Approaches? [1.3651236252124068]
我々は、生成人工知能(GenAI)による倫理的・社会的意味の深い重要かつ未解決ないくつかの法的問題を特定する。
我々の重要な貢献は、学術や実践者がより有用な調査や議論を行えるように、GenAI特有の問題を正式に特定することである。
我々は、GenAIの特徴として、汎用性、大規模なデータセットへの依存、広く普及する社会的利益と害の両方の可能性などを挙げ、既存の法的パラダイムの再評価の必要性を論じる。
論文 参考訳(メタデータ) (2024-07-02T05:51:41Z) - SoK: The Gap Between Data Rights Ideals and Reality [42.769107967436945]
権利に基づくプライバシー法は、個人が自分のデータよりも効果的に権限を与えるのか?
本稿では,実証研究,ニュース記事,ブログ記事をレビューすることで,これらのアプローチを精査する。
論文 参考訳(メタデータ) (2023-12-03T21:52:51Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Data, Power and Bias in Artificial Intelligence [5.124256074746721]
人工知能は社会的偏見を悪化させ、平等な権利と市民の自由における数十年の進歩を取り戻せる可能性がある。
機械学習アルゴリズムの訓練に使用されるデータは、社会で学び、永続する可能性のある社会的不正、不平等、差別的な態度を捉えることができる。
本稿では、異なるドメインからのAIシステムにおけるデータの公正性、公平性、バイアス軽減を保証するための継続的な作業についてレビューする。
論文 参考訳(メタデータ) (2020-07-28T16:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。