論文の概要: Advancing Science- and Evidence-based AI Policy
- arxiv url: http://arxiv.org/abs/2508.02748v1
- Date: Sat, 02 Aug 2025 23:20:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.605095
- Title: Advancing Science- and Evidence-based AI Policy
- Title(参考訳): 科学とエビデンスに基づくAI政策の推進
- Authors: Rishi Bommasani, Sanjeev Arora, Jennifer Chayes, Yejin Choi, Mariano-Florentino Cuéllar, Li Fei-Fei, Daniel E. Ho, Dan Jurafsky, Sanmi Koyejo, Hima Lakkaraju, Arvind Narayanan, Alondra Nelson, Emma Pierson, Joelle Pineau, Scott Singer, Gaël Varoquaux, Suresh Venkatasubramanian, Ion Stoica, Percy Liang, Dawn Song,
- Abstract要約: 本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
- 参考スコア(独自算出の注目度): 163.43609502905707
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI policy should advance AI innovation by ensuring that its potential benefits are responsibly realized and widely shared. To achieve this, AI policymaking should place a premium on evidence: Scientific understanding and systematic analysis should inform policy, and policy should accelerate evidence generation. But policy outcomes reflect institutional constraints, political dynamics, electoral pressures, stakeholder interests, media environment, economic considerations, cultural contexts, and leadership perspectives. Adding to this complexity is the reality that the broad reach of AI may mean that evidence and policy are misaligned: Although some evidence and policy squarely address AI, much more partially intersects with AI. Well-designed policy should integrate evidence that reflects scientific understanding rather than hype. An increasing number of efforts address this problem by often either (i) contributing research into the risks of AI and their effective mitigation or (ii) advocating for policy to address these risks. This paper tackles the hard problem of how to optimize the relationship between evidence and policy to address the opportunities and challenges of increasingly powerful AI.
- Abstract(参考訳): AIポリシーは、その潜在的な利益が責任を持って実現され、広く共有されることを保証することによって、AIイノベーションを促進するべきである。
科学的理解と体系的な分析はポリシーに通知し、政策は証拠の生成を加速する必要があります。
しかし、政策の成果は、制度的な制約、政治的ダイナミクス、選挙の圧力、ステークホルダーの関心、メディア環境、経済的な考慮、文化的な文脈、リーダーシップの観点を反映している。
この複雑さの追加は、AIの広範なリーチは、証拠とポリシーが一致していないことを意味している、という現実である: 証拠とポリシーはAIに正方形に対処するが、より部分的にAIと交差する。
十分に設計された政策は、誇大広告よりも科学的理解を反映した証拠を統合するべきである。
この問題に対処する取り組みが増えているか、しばしば
i)AIのリスクとその効果的な緩和に関する研究に寄与すること
(二)これらのリスクに対処する政策を提唱すること。
本稿では、ますます強力なAIの機会と課題に対処するために、エビデンスとポリシーの関係を最適化する方法の難しい問題に取り組む。
関連論文リスト
- The California Report on Frontier AI Policy [110.35302787349856]
フロンティアAIの継続的な進歩は、科学的発見、経済生産性、より広範な社会福祉における大きな進歩の可能性を秘めている。
グローバルAIイノベーションの中心として、カリフォルニアには、フロンティアAIの開発を継続するユニークな機会がある。
報告書は、カリフォルニアがフロンティアAIの使用、評価、ガバナンスにどのようにアプローチするかを知らせる政策原則を導出する。
論文 参考訳(メタデータ) (2025-06-17T23:33:21Z) - Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - Pitfalls of Evidence-Based AI Policy [13.370321579091387]
目的がエビデンスベースのAIポリシーであるなら、第一の規制目標は、AIリスクを特定し、研究し、検討するプロセスを積極的に促進することである、と我々は主張する。
これを促進するために、ブラジル、カナダ、中国、EU、韓国、英国、米国がそれぞれ、さらなる証拠調査政策を採用する実質的な機会を持っていることを示すための15の規制目標について論じる。
論文 参考訳(メタデータ) (2025-02-13T18:59:30Z) - Assessing the State of AI Policy [0.5156484100374057]
この研究は、国際、米国、市、および連邦レベルでのAI法と指令の概要を提供する。
また、関連するビジネス標準や技術社会のイニシアチブも見直している。
論文 参考訳(メタデータ) (2024-07-31T16:09:25Z) - The impact of generative artificial intelligence on socioeconomic inequalities and policy making [1.5156317247732694]
生成的人工知能は、既存の社会経済的不平等を悪化させ、改善する可能性がある。
私たちのゴールは、AIが普及する社会問題の緩和にどのように役立つかを明らかにしながら、生成的AIが既存の不平等をいかに悪化させるかを強調することです。
情報領域では、生成AIはコンテンツの創造とアクセスを民主化することができるが、誤情報の生成と拡散を劇的に拡大する可能性がある。
教育ではパーソナライズされた学習を提供するが、デジタルディビジョンを広げる可能性がある。
医療分野では、診断とアクセシビリティを改善するが、既存の不平等をより深める可能性がある。
論文 参考訳(メタデータ) (2023-12-16T10:37:22Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - AI Federalism: Shaping AI Policy within States in Germany [0.0]
近年のAIガバナンス研究は、国家や国際機関が発行するAIの戦略論文と倫理ガイドラインの分析に重点を置いている。
亜国の機関も人工知能に関する文書を公表しているが、これらは政策分析にはほとんど欠落している。
これは、AIが経済政策や研究政策など多くの政策分野と結びついており、その能力は既に国家と国家のレベルで分散しているため、驚くべきことである。
論文 参考訳(メタデータ) (2021-10-28T16:06:07Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。