論文の概要: NeurIPS should lead scientific consensus on AI policy
- arxiv url: http://arxiv.org/abs/2510.00075v1
- Date: Tue, 30 Sep 2025 01:08:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.163062
- Title: NeurIPS should lead scientific consensus on AI policy
- Title(参考訳): NeurIPSはAI政策に関する科学的コンセンサスを導くべきだ
- Authors: Rishi Bommasani,
- Abstract要約: 我々はNeurIPSがAI政策に関する科学的コンセンサスを積極的に触媒するべきだと考えている。
我々は、気候政策に関するIPCCのリーダーシップから教訓を抽出することで、NeurIPSの初期パイロットを推薦する。
- 参考スコア(独自算出の注目度): 9.434887162647657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing wise AI policy is a grand challenge for society. To design such policy, policymakers should place a premium on rigorous evidence and scientific consensus. While several mechanisms exist for evidence generation, and nascent mechanisms tackle evidence synthesis, we identify a complete void on consensus formation. In this position paper, we argue NeurIPS should actively catalyze scientific consensus on AI policy. Beyond identifying the current deficit in consensus formation mechanisms, we argue that NeurIPS is the best option due its strengths and the paucity of compelling alternatives. To make progress, we recommend initial pilots for NeurIPS by distilling lessons from the IPCC's leadership to build scientific consensus on climate policy. We dispel predictable counters that AI researchers disagree too much to achieve consensus and that policy engagement is not the business of NeurIPS. NeurIPS leads AI on many fronts, and it should champion scientific consensus to create higher quality AI policy.
- Abstract(参考訳): 賢明なAIポリシーを設計することは、社会にとって大きな課題である。
このような政策を設計するためには、政策立案者は厳格な証拠と科学的コンセンサスにプレミアムを課すべきである。
証拠生成のためのいくつかのメカニズムがあり、初期メカニズムは証拠合成に取り組むが、コンセンサス形成に関する完全なヴォイドを同定する。
本稿では,NeurIPSがAI政策に関する科学的コンセンサスを積極的に触媒するべきだと論じる。
コンセンサス形成メカニズムにおける現在の欠陥の特定以外にも、NeurIPSはその強みと説得力のある代替手段の多さから、最良の選択肢であると主張している。
我々は、気候政策に関する科学的コンセンサスを構築するため、IPCCのリーダーシップから教訓を抽出し、NeurIPSの初期パイロットを推薦する。
私たちは、AI研究者がコンセンサスを達成するためにあまり意見が一致せず、政策の関与がNeurIPSのビジネスではないという予測可能な反論を排除します。
NeurIPSは多くの面でAIをリードし、より高品質なAIポリシーを作成するために科学的コンセンサスを推進すべきである。
関連論文リスト
- Advancing Science- and Evidence-based AI Policy [163.43609502905707]
本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
論文 参考訳(メタデータ) (2025-08-02T23:20:58Z) - The California Report on Frontier AI Policy [110.35302787349856]
フロンティアAIの継続的な進歩は、科学的発見、経済生産性、より広範な社会福祉における大きな進歩の可能性を秘めている。
グローバルAIイノベーションの中心として、カリフォルニアには、フロンティアAIの開発を継続するユニークな機会がある。
報告書は、カリフォルニアがフロンティアAIの使用、評価、ガバナンスにどのようにアプローチするかを知らせる政策原則を導出する。
論文 参考訳(メタデータ) (2025-06-17T23:33:21Z) - Military AI Needs Technically-Informed Regulation to Safeguard AI Research and its Applications [1.4347154947542533]
我々は、ターゲティングや戦場決定にAIを使用する致命的な自律兵器システム(LAWS)のサブセットに焦点を当てます。
これらのリスクは、軍事的効果とAI研究の開放性の両方を脅かす。
本稿では,AI-LAWSの行動に基づく定義を技術的根拠に基づく規制の基盤として提案する。
論文 参考訳(メタデータ) (2025-05-23T20:58:38Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Ethics and Governance of Artificial Intelligence: Evidence from a Survey
of Machine Learning Researchers [0.0]
機械学習(ML)と人工知能(AI)の研究者は、AIの倫理とガバナンスにおいて重要な役割を果たす。
トップクラスのAI/MLカンファレンスで公開した人々の調査を行った。
AI/MLの研究者たちは、国際組織や科学組織に対して高いレベルの信頼を置いている。
論文 参考訳(メタデータ) (2021-05-05T15:23:12Z) - The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse? [0.0]
人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
論文 参考訳(メタデータ) (2019-12-27T10:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。