論文の概要: Who Followed the Blueprint? Analyzing the Responses of U.S. Federal Agencies to the Blueprint for an AI Bill of Rights
- arxiv url: http://arxiv.org/abs/2404.19076v1
- Date: Mon, 29 Apr 2024 19:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 18:00:28.532388
- Title: Who Followed the Blueprint? Analyzing the Responses of U.S. Federal Agencies to the Blueprint for an AI Bill of Rights
- Title(参考訳): 誰がブループリントをフォローしたのか?AI権利章典の青プリントに対する米国の連邦機関の反応の分析
- Authors: Darren Lage, Riley Pruitt, Jason Ross Arnold,
- Abstract要約: ホワイトハウスは2022年10月に"Blueprint for an AI Bill of Rights"を発表した。
Blueprintは人工知能システムの倫理的ガバナンスのためのフレームワークを提供した。
調査は、米国の連邦機関が対応した範囲について調査する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examines the extent to which U.S. federal agencies responded to and implemented the principles outlined in the White House's October 2022 "Blueprint for an AI Bill of Rights." The Blueprint provided a framework for the ethical governance of artificial intelligence systems, organized around five core principles: safety and effectiveness, protection against algorithmic discrimination, data privacy, notice and explanation about AI systems, and human alternatives and fallback. Through an analysis of publicly available records across 15 federal departments, the authors found limited evidence that the Blueprint directly influenced agency actions after its release. Only five departments explicitly mentioned the Blueprint, while 12 took steps aligned with one or more of its principles. However, much of this work appeared to have precedents predating the Blueprint or motivations disconnected from it, such as compliance with prior executive orders on trustworthy AI. Departments' activities often emphasized priorities like safety, accountability and transparency that overlapped with Blueprint principles, but did not necessarily stem from it. The authors conclude that the non-binding Blueprint seems to have had minimal impact on shaping the U.S. government's approach to ethical AI governance in its first year. Factors like public concerns after high-profile AI releases and obligations to follow direct executive orders likely carried more influence over federal agencies. More rigorous study would be needed to definitively assess the Blueprint's effects within the federal bureaucracy and broader society.
- Abstract(参考訳): この研究は、2022年10月のホワイトハウスの「AI権利章典の青写真」で概説された原則に米国連邦政府が反応し、実施した範囲を調査した。
Blueprintは、AIシステムの倫理的ガバナンスのためのフレームワークを提供し、安全と有効性、アルゴリズムによる差別に対する保護、データプライバシ、AIシステムに関する通知と説明、ヒューマン代替とフォールバックの5つの基本原則で構成された。
著者らは15の連邦部門で公開されている記録の分析を通じて、Blueprintが公開後の機関の行動に直接影響を与えたという限られた証拠を発見した。
ブループリントに言及したのは5つの部門のみであり、12はその原則の1つ以上のステップを踏襲した。
しかしながら、この研究の多くは、Blueprint以前の前例や、信頼できるAIに関する以前の幹部命令の遵守など、Blueprintから切り離されたモチベーションを持っているように思われる。
省の活動は、ブループリントの原則と重なる安全、説明責任、透明性といった優先事項を強調したが、必ずしもそれに由来するものではない。
著者らは、非バインディングのBlueprintは、最初の1年で米国政府の倫理的AIガバナンスに対するアプローチを形作るのに最小限の影響を及ぼしたと結論付けている。
著名なAIリリース後の公的な懸念や、直接執行命令に従う義務といった要因は、連邦機関に影響を及ぼす可能性がある。
より厳密な研究は、連邦官僚制とより広い社会におけるブループリントの効果を確定的に評価するために必要となる。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Operationalizing the Blueprint for an AI Bill of Rights: Recommendations for Practitioners, Researchers, and Policy Makers [20.16404495546234]
世界の様々な国でいくつかの規制の枠組みが導入されている。
これらのフレームワークの多くは、AIツールの監査と信頼性向上の必要性を強調している。
これらの規制の枠組みは実施の必要性を強調しているが、実践者はしばしば実施に関する詳細なガイダンスを欠いている。
我々は、最先端の文献の分かりやすい要約を提供し、規制ガイドラインと既存のAI研究の間に存在する様々なギャップを強調します。
論文 参考訳(メタデータ) (2024-07-11T17:28:07Z) - Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Large Language Models as Corporate Lobbyists [0.0]
自己回帰的大言語モデルは、提案されたアメリカ合衆国議会法案が特定の公共企業に関連するかどうかを決定する。
モデルが関連するものとみなす法案について、モデルは、提案された法律を変更するよう議会に説得するために、法案のスポンサーに手紙を起草する。
論文 参考訳(メタデータ) (2023-01-03T16:25:52Z) - Artificial Intelligence Ethics and Safety: practical tools for creating
"good" models [0.0]
AI Robotics Ethics Society(AIRES)は、2018年にアーロン・ヒューイによって設立された非営利団体である。
AIRESは現在UCLA(ロサンゼルス)、USC(南カリフォルニア大学)、カリフォルニア工科大学(カリフォルニア工科大学)、スタンフォード大学、コーネル大学、ブラウン大学、リオグランデ・ド・スルのポンティフィカル・カトリック大学(ブラジル)などの大学に支部を置いている。
論文 参考訳(メタデータ) (2021-12-14T19:10:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。