論文の概要: Shared (Mis)Understandings and the Governance of AI: A Thematic Analysis of the 2023-2024 Oversight of AI Hearings
- arxiv url: http://arxiv.org/abs/2603.03193v1
- Date: Tue, 03 Mar 2026 17:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.902156
- Title: Shared (Mis)Understandings and the Governance of AI: A Thematic Analysis of the 2023-2024 Oversight of AI Hearings
- Title(参考訳): 共有された(ミス)AIのガバナンス:2023-2024年のAI聴取の監視に関する理論的分析
- Authors: Rachel Leach,
- Abstract要約: 私は、上院司法委員会のプライバシー、技術、法に関する小委員会が主催する、2023-2024年のAI審問の監督に焦点を当てます。
私は、テクノロジー産業を圧倒的に代表している参加者が、AIの過去、現在、そして将来の影響を理解するための物語を作る方法を調べます。
産業の影響をAIの影響と政府の適切な役割に対する支配的な理解に追及することで、これらの公聴会を通じて実現され維持される権力の配置について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates early legislative deliberations over Artificial Intelligence in the United States through a thematic analysis of the 2023-2024 Oversight of AI hearings held by the Senate Judiciary Committee's subcommittee on Privacy, Technology, and the Law. I focus on these hearings as a site where participants draw from, and renegotiate, accustomed ways of thinking about technology and society. First, I examine how participants, who overwhelmingly represent the technology industry, work to create narratives for understanding the past, present, and future impacts of AI. Second, I examine how these narratives are invoked to argue for particular forms of AI governance, while casting alternative approaches as everything from infeasible to anti-American. By tracing industry influence over dominant understandings of the impacts of AI and the proper role of government, I examine the arrangements of power enacted and upheld through these hearings. In all, I ask: what role to shared (mis)understandings of AI play in early attempts at governing this technology?
- Abstract(参考訳): 本稿では,上院司法委員会のプライバシ,技術,法律委員会が主催する2023-2024年のAI聴聞会のテーマ分析を通じて,米国における人工知能に関する早期の立法検討について検討する。
私はこれらの聴聞会を、参加者がテクノロジーや社会についての考え方を引き合いに出し、再交渉する場として焦点を当てています。
まず、テクノロジー産業を圧倒的に代表している参加者が、AIの過去、現在、そして将来の影響を理解するための物語を作成する方法を検討する。
第2に、これらの物語が、AIガバナンスの特定の形態を論じるためにどのように呼び出されるかを調べ、代替アプローチを、実現不可能から反米まで、すべてに当てはめています。
産業の影響をAIの影響と政府の適切な役割に対する支配的な理解に追及することで、これらの公聴会を通じて実現され維持される権力の配置について検討する。
要するに、このテクノロジを統治する初期の試みにおいて、AIの理解を共有する(誤った)役割は何でしょうか?
関連論文リスト
- AI Narrative Breakdown. A Critical Assessment of Power and Promise [0.0]
この記事では、AIとの社会的関わりを形作る広範にわたる物語を精査している。
エージェンシーや意思決定、真理性、自律性、知識処理、予測、汎用性、中立性、客観性といった重要なテーマを強調している。
この記事は、AIとのより根底的な関わりを呼びかけ、AIを必ずしも社会的ガバナンスの対象となる人間指向のツールとして認識する新しい物語を提案する。
論文 参考訳(メタデータ) (2026-01-29T19:26:45Z) - Ethics through the Facets of Artificial Intelligence [0.0]
懸念は、AIのぼやけた理解、どのように使用できるか、社会でどのように解釈されたかに起因している、と我々は主張する。
本稿では,AI利用の倫理的評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2025-07-22T21:21:37Z) - Beware! The AI Act Can Also Apply to Your AI Research Practices [2.532202013576547]
EUはデジタル時代を規制する先駆者の一人となっている。
AI法は、リスクベースのアプローチにより、AIシステムのプロバイダに対するさまざまな義務を規定している。
このポジションペーパーは、事実、AI法の義務は、AIコミュニティが認識しているよりも多くのケースに適用できると主張している。
論文 参考訳(メタデータ) (2025-06-03T08:01:36Z) - Shaping AI's Impact on Billions of Lives [27.78474296888659]
我々は、AI実践者のコミュニティが、共通の善のために意識的に、積極的に働くことを主張する。
本稿は、新しいタイプのイノベーション基盤の青写真を提供する。
論文 参考訳(メタデータ) (2024-12-03T16:29:37Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。