論文の概要: Now More Than Ever, Foundational AI Research and Infrastructure Depends on the Federal Government
- arxiv url: http://arxiv.org/abs/2506.14679v1
- Date: Tue, 17 Jun 2025 16:09:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.565022
- Title: Now More Than Ever, Foundational AI Research and Infrastructure Depends on the Federal Government
- Title(参考訳): AIの基礎研究とインフラは連邦政府に依存している
- Authors: Michela Taufer, Rada Mihalcea, Matthew Turk, Dan Lopresti, Adam Wierman, Kevin Butler, Sven Koenig, David Danks, William Gropp, Manish Parashar, Yolanda Gil, Bill Regli, Rajmohan Rajaraman, David Jensen, Nadya Bliss, Mary Lou Maher,
- Abstract要約: 財団法人AI研究への連邦政府の投資は、この分野における米国のリーダーシップにとって不可欠である。
今こそ、米国のハイテク産業への投資を補完し、推進する連邦政府の支援を強化する時だ。
- 参考スコア(独自算出の注目度): 40.47004105625897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leadership in the field of AI is vital for our nation's economy and security. Maintaining this leadership requires investments by the federal government. The federal investment in foundation AI research is essential for U.S. leadership in the field. Providing accessible AI infrastructure will benefit everyone. Now is the time to increase the federal support, which will be complementary to, and help drive, the nation's high-tech industry investments.
- Abstract(参考訳): AI分野におけるリーダーシップは、我が国の経済と安全保障にとって不可欠である。
このリーダーシップを維持するためには連邦政府による投資が必要である。
財団法人AI研究への連邦政府の投資は、この分野における米国のリーダーシップにとって不可欠である。
アクセス可能なAIインフラストラクチャを提供することは、誰にとっても有益だ。
今こそ、米国のハイテク産業への投資を補完し、推進する連邦政府の支援を強化する時だ。
関連論文リスト
- Advancing Science- and Evidence-based AI Policy [163.43609502905707]
本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
論文 参考訳(メタデータ) (2025-08-02T23:20:58Z) - The Singapore Consensus on Global AI Safety Research Priorities [128.58674892183657]
2025年シンガポールAI会議(SCAI: International Scientific Exchange on AI Safety)は、この分野での研究を支援することを目的としている。
ヨシュア・ベンジオが議長を務める国際AI安全レポート(AI Safety Report)は、33の政府によって支援されている。
レポートは、AI安全研究ドメインを3つのタイプに分類する。信頼に値するAIシステム(開発)作成の課題、リスク評価の課題(評価)、デプロイメント後の監視と介入の課題(会議)。
論文 参考訳(メタデータ) (2025-06-25T17:59:50Z) - The California Report on Frontier AI Policy [110.35302787349856]
フロンティアAIの継続的な進歩は、科学的発見、経済生産性、より広範な社会福祉における大きな進歩の可能性を秘めている。
グローバルAIイノベーションの中心として、カリフォルニアには、フロンティアAIの開発を継続するユニークな機会がある。
報告書は、カリフォルニアがフロンティアAIの使用、評価、ガバナンスにどのようにアプローチするかを知らせる政策原則を導出する。
論文 参考訳(メタデータ) (2025-06-17T23:33:21Z) - AI Agent Governance: A Field Guide [0.0]
エージェント - 世界の目標を自律的に達成できるAIシステムは、先進的なテック企業、AIスタートアップ、投資家の主要な焦点である。
有能なエージェントが大量に配置される未来は、社会に変革的な利益をもたらすだけでなく、深遠で新しいリスクをもたらす可能性がある。
社会団体、公共研究機関、フロンティアAI企業など、この課題に積極的に取り組んでいる研究者はごくわずかだ。
論文 参考訳(メタデータ) (2025-05-27T22:26:51Z) - One Bad NOFO? AI Governance in Federal Grantmaking [0.2179228399562846]
米国の機関は、連邦政府の財政援助に何十億ドルもの資金を投入する際に、見過ごされているAIガバナンスの役割を持っている。
裁量的な助成金メーカーとして、機関は、AIガバナンスのための隠されたレバーである、受賞者の行為をガイドし、制限する。
2009年から2024年にかけて、米国連邦助成金のウェブサイトに投稿された4万件以上の連邦助成金の申告書(NOFO)のデータセットを使用します。
論文 参考訳(メタデータ) (2025-05-13T00:08:22Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Shaping AI's Impact on Billions of Lives [27.78474296888659]
我々は、AI実践者のコミュニティが、共通の善のために意識的に、積極的に働くことを主張する。
本稿は、新しいタイプのイノベーション基盤の青写真を提供する。
論文 参考訳(メタデータ) (2024-12-03T16:29:37Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Developing a Series of AI Challenges for the United States Department of
the Air Force [38.272190683894856]
DAF-MIT AI Acceleratorは、AI研究者とDAFのミッション要件の間のギャップを埋めるための、DAFとMITの間のイニシアチブである。
DAF-MIT AI Acceleratorが支援するいくつかのプロジェクトは、多くの連邦AI研究優先順位に対処する公的な課題を開発している。
これらの課題は、大規模でAI対応のデータセットを公開し、オープンソースソリューションのインセンティブを与え、デュアルユースケーステクノロジの需要信号を作成することによって、優先順位を目標とする。
論文 参考訳(メタデータ) (2022-07-14T16:13:40Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - U.S. Public Opinion on the Governance of Artificial Intelligence [0.0]
既存の研究では、新興技術の規制を形成する上で、公共の機関に対する信頼が大きな役割を果たすことが示されている。
我々は、13のAIガバナンス課題に対するアメリカ人の認識と、AIを責任を持って開発・管理するための政府、企業、およびマルチステークホルダー機関への信頼について検討した。
論文 参考訳(メタデータ) (2019-12-30T07:38:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。