論文の概要: The Societal Impact of Foundation Models: Advancing Evidence-based AI Policy
- arxiv url: http://arxiv.org/abs/2506.23123v1
- Date: Sun, 29 Jun 2025 07:16:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.728091
- Title: The Societal Impact of Foundation Models: Advancing Evidence-based AI Policy
- Title(参考訳): 基礎モデルの社会的影響:エビデンスに基づくAI政策の推進
- Authors: Rishi Bommasani,
- Abstract要約: 論文は、AIの時代において、テクノロジーと社会がどのように共進化し、3つのテーマを中心に組織されたかを説明している。
第一に、概念的フレーミング(conceptual framing)は、幅広い経済において基盤モデルの基礎となる能力、リスク、サプライチェーンである。
第二に、概念的基盤を豊かにする実証的な洞察: モデルレベルでの評価と組織レベルでのインデックスを通じて生成される透明性。
第3に、理解から行動への転換:基礎モデルの社会的影響の優れた理解は、エビデンスベースのAIポリシーを前進させる。
- 参考スコア(独自算出の注目度): 14.679051711850393
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial intelligence is humanity's most promising technology because of the remarkable capabilities offered by foundation models. Yet, the same technology brings confusion and consternation: foundation models are poorly understood and they may precipitate a wide array of harms. This dissertation explains how technology and society coevolve in the age of AI, organized around three themes. First, the conceptual framing: the capabilities, risks, and the supply chain that grounds foundation models in the broader economy. Second, the empirical insights that enrich the conceptual foundations: transparency created via evaluations at the model level and indexes at the organization level. Finally, the transition from understanding to action: superior understanding of the societal impact of foundation models advances evidence-based AI policy. View together, this dissertation makes inroads into achieving better societal outcomes in the age of AI by building the scientific foundations and research-policy interface required for better AI governance.
- Abstract(参考訳): 人工知能は、基礎モデルによって提供される驚くべき能力のため、人類にとって最も有望な技術である。
しかし、同じ技術は混乱と結束をもたらし、基礎モデルは十分に理解されておらず、幅広い害を生じさせる可能性がある。
この論文は、テクノロジーと社会がAI時代にどのように共進化するかを説明している。
第一に、概念的フレーミング(conceptual framing)は、幅広い経済において基盤モデルの基礎となる能力、リスク、サプライチェーンである。
第2に,概念的基盤を豊かにする実証的な洞察 – モデルレベルでの評価と組織レベルでのインデックスを通じて生成された透明性 – です。
最後に、理解から行動への移行:基礎モデルの社会的影響の優れた理解は、エビデンスベースのAIポリシーを前進させる。
まとめると、この論文は、より良いAIガバナンスに必要な科学基盤と研究・政治インターフェースを構築することによって、AIの時代におけるより良い社会的成果を達成するための道を開く。
関連論文リスト
- A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Replicating Human Social Perception in Generative AI: Evaluating the Valence-Dominance Model [0.13654846342364302]
マルチモーダル生成型AIシステムは、人間の社会的知覚の重要な側面を再現できることを示す。
発見は、AIによる意思決定と人間とAIのインタラクションに関する重要な疑問を提起する。
論文 参考訳(メタデータ) (2025-03-05T17:35:18Z) - AI and Social Theory [0.0]
我々は、人工知能(AI)が意味するものを定義することから始まる、AI駆動型社会理論のプログラムをスケッチする。
そして、AIベースのモデルがデジタルデータの可用性を増大させ、予測力に基づいて異なる社会的理論の有効性をテストするためのモデルを構築します。
論文 参考訳(メタデータ) (2024-07-07T12:26:16Z) - Toward an Artist-Centred AI [0.0]
本稿では、芸術におけるAIの使用に関する原則、実践、ツールの適合性と望ましい概念を文脈的に分析する。
AIがアート制作、流通、消費、収益化にもたらす課題を調べることで構成された。
論文 参考訳(メタデータ) (2024-04-13T09:43:23Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - A Survey of Reasoning with Foundation Models [235.7288855108172]
推論は、交渉、医療診断、刑事捜査など、様々な現実世界の環境において重要な役割を担っている。
本稿では,推論に適応する基礎モデルを提案する。
次に、基礎モデルにおける推論能力の出現の背後にある潜在的な将来方向を掘り下げる。
論文 参考訳(メタデータ) (2023-12-17T15:16:13Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。