論文の概要: One Bad NOFO? AI Governance in Federal Grantmaking
- arxiv url: http://arxiv.org/abs/2505.08133v2
- Date: Wed, 21 May 2025 18:33:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 12:25:14.967464
- Title: One Bad NOFO? AI Governance in Federal Grantmaking
- Title(参考訳): 1つの悪いNOFO? 連邦議事堂におけるAIガバナンス
- Authors: Dan Bateyko, Karen Levy,
- Abstract要約: 米国の機関は、連邦政府の財政援助に何十億ドルもの資金を投入する際に、見過ごされているAIガバナンスの役割を持っている。
裁量的な助成金メーカーとして、機関は、AIガバナンスのための隠されたレバーである、受賞者の行為をガイドし、制限する。
2009年から2024年にかけて、米国連邦助成金のウェブサイトに投稿された4万件以上の連邦助成金の申告書(NOFO)のデータセットを使用します。
- 参考スコア(独自算出の注目度): 0.2179228399562846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much scholarship considers how U.S. federal agencies govern artificial intelligence (AI) through rulemaking and their own internal use policies. But agencies have an overlooked AI governance role: setting discretionary grant policy when directing billions of dollars in federal financial assistance. These dollars enable state and local entities to study, create, and use AI. This funding not only goes to dedicated AI programs, but also to grantees using AI in the course of meeting their routine grant objectives. As discretionary grantmakers, agencies guide and restrict what grant winners do -- a hidden lever for AI governance. Agencies pull this lever by setting program objectives, judging criteria, and restrictions for AI use. Using a novel dataset of over 40,000 non-defense federal grant notices of funding opportunity (NOFOs) posted to the U.S. federal grants website between 2009 and 2024, we analyze how agencies regulate the use of AI by grantees. We select records mentioning AI and review their stated goals and requirements. We find agencies promoting AI in notice narratives, shaping adoption in ways other records of grant policy might fail to capture. Of the grant opportunities that mention AI, we find only a handful of AI-specific judging criteria or restrictions. This silence holds even when agencies fund AI uses in contexts affecting people's rights and which, under an analogous federal procurement regime, would result in extra oversight. These findings recast grant notices as a site of AI policymaking -- albeit one that is developing out of step with other regulatory efforts and incomplete in its consideration of transparency, accountability, and privacy protections. The paper concludes by drawing lessons from AI procurement scholarship, while identifying distinct challenges in grantmaking that invite further study.
- Abstract(参考訳): 多くの奨学金は、アメリカ連邦政府がルール作成と内部利用政策を通じて人工知能(AI)をどう管理するかを考察している。
しかし、政府機関はAIガバナンスの役割を軽視している。
これらのドルは、州や地方機関がAIを研究し、作成し、使用することができる。
この資金は、専用のAIプログラムだけでなく、通常の補助目標を満たすためにAIを使用する人たちにも寄付される。
裁量的な助成金メーカーとして、機関は、AIガバナンスのための隠されたレバーである、受賞者の行為をガイドし、制限する。
企業は、プログラムの目標を設定し、基準を判断し、AIの使用を制限することで、このレバーを引き出す。
2009年から2024年にかけて、米国連邦助成金のウェブサイトに投稿された4万件以上の連邦助成金の申告書(NOFO)からなる新しいデータセットを用いて、政府機関が助成金によるAIの使用を規制する方法を分析した。
私たちはAIに言及するレコードを選択し、その目標と要件をレビューします。
私たちは、AIを宣伝する機関が注目の物語に登場し、他の助成金政策の記録が捉えられないような方法で採用を形作っていることに気付きました。
AIに言及する助成金の機会のうち、AI固有の判断基準や制限はごくわずかです。
この沈黙は、機関が人々の権利に影響を与える文脈でAIの使用に資金を提供し、類似の連邦調達体制の下では、余分な監視をもたらすとしても維持される。
これらの発見は、承認通知をAIポリシー作成の場として再放送する。これは他の規制当局の取り組みと段階的に発展し、透明性、説明責任、プライバシー保護を考慮に入れていないものだ。
論文は、AI調達奨学金から教訓を引き出すとともに、さらなる研究を招待する助成金の個別の課題を特定することで締めくくっている。
関連論文リスト
- The AI Pentad, the CHARME$^{2}$D Model, and an Assessment of Current-State AI Regulation [5.231576332164012]
本稿では,コアAIコンポーネントの観点から,AI規制の統一モデルを確立することを目的とする。
まず、AIの5つの重要なコンポーネントで構成されるAI Pentadを紹介します。
次に、AI登録と開示、AI監視、AI執行機構を含むAI規制イネージャをレビューする。
論文 参考訳(メタデータ) (2025-03-08T22:58:41Z) - Responsible Artificial Intelligence (RAI) in U.S. Federal Government : Principles, Policies, and Practices [0.0]
人工知能(AI)と機械学習(ML)は、過去数十年で大きな進歩を遂げてきた。
AI/MLの急速な成長と、多くの民間および公共セクターのアプリケーションへの普及は成功したが、規制当局にとって新たな課題と障害が開かれた。
新たな意思決定AI/MLシステムには、人間による関与がほとんど、あるいはほとんど必要とされないため、これらのシステムの責任を負うことを保証する必要が迫られている。
論文 参考訳(メタデータ) (2025-01-12T16:06:37Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - When Should Algorithms Resign? A Proposal for AI Governance [10.207523025324296]
アルゴリズムの辞退は、ガバナンスを直接AIシステムに埋め込むことによって、人工知能(AI)の使用を管理する戦略的アプローチである。
アクセスAI出力の制限やパフォーマンス評価の表示など、AIからの意図的かつインフォームドな切り離しが伴う。
論文 参考訳(メタデータ) (2024-02-28T13:48:44Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Ethics and Governance of Artificial Intelligence: Evidence from a Survey
of Machine Learning Researchers [0.0]
機械学習(ML)と人工知能(AI)の研究者は、AIの倫理とガバナンスにおいて重要な役割を果たす。
トップクラスのAI/MLカンファレンスで公開した人々の調査を行った。
AI/MLの研究者たちは、国際組織や科学組織に対して高いレベルの信頼を置いている。
論文 参考訳(メタデータ) (2021-05-05T15:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。