論文の概要: Reproducibility: The New Frontier in AI Governance
- arxiv url: http://arxiv.org/abs/2510.11595v1
- Date: Mon, 13 Oct 2025 16:34:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 20:23:38.962896
- Title: Reproducibility: The New Frontier in AI Governance
- Title(参考訳): 再現性 - AIガバナンスの新しいフロンティア
- Authors: Israel Mason-Williams, Gabryel Mason-Williams,
- Abstract要約: AIの現在の出版速度は、弱いプロトコルを通じて強力な科学的標準が欠如していることと相まって、政策立案者の影響力を効果的に侵食し、意味のある政策とガバナンスのプロトコルを実践している、と我々は主張する。
我々は、他の科学分野における危機のレンズを通して、AI研究における今後の危機を評価する。
政策立案者や政府は、プロトコルをガバナンス兵器の中核的なツールとみなし、AI研究のより高い標準を要求しなければならない、と我々は主張する。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI policymakers are responsible for delivering effective governance mechanisms that can provide safe, aligned and trustworthy AI development. However, the information environment offered to policymakers is characterised by an unnecessarily low Signal-To-Noise Ratio, favouring regulatory capture and creating deep uncertainty and divides on which risks should be prioritised from a governance perspective. We posit that the current publication speeds in AI combined with the lack of strong scientific standards, via weak reproducibility protocols, effectively erodes the power of policymakers to enact meaningful policy and governance protocols. Our paper outlines how AI research could adopt stricter reproducibility guidelines to assist governance endeavours and improve consensus on the AI risk landscape. We evaluate the forthcoming reproducibility crisis within AI research through the lens of crises in other scientific domains; providing a commentary on how adopting preregistration, increased statistical power and negative result publication reproducibility protocols can enable effective AI governance. While we maintain that AI governance must be reactive due to AI's significant societal implications we argue that policymakers and governments must consider reproducibility protocols as a core tool in the governance arsenal and demand higher standards for AI research. Code to replicate data and figures: https://github.com/IFMW01/reproducibility-the-new-frontier-in-ai-governance
- Abstract(参考訳): AI政策立案者は、安全で整合性があり信頼できるAI開発を提供する効果的なガバナンスメカニズムを提供する責任がある。
しかし、政策立案者に提供される情報環境は、規制の捕捉と深い不確実性を生み出し、ガバナンスの観点からどのリスクを優先すべきかを区別する、不必要に低いシグナル・ツー・ノイズ比によって特徴づけられる。
AIの現在の出版速度は、強力な科学的基準の欠如と相まって、再現性の弱いプロトコルを通じて、政策立案者の影響力を効果的に損なうことで、意味のある政策とガバナンスのプロトコルを実行に移すことができると仮定する。
本稿は、AI研究がより厳格な再現性ガイドラインを導入して、ガバナンスの取り組みを支援し、AIリスクの状況に関するコンセンサスを改善する方法について概説する。
我々は,AI研究における今後の再現性危機を,他の科学的領域における危機のレンズを通じて評価し,事前登録の採用,統計力の向上,ネガティブな結果公開の再現性プロトコルが効果的なAIガバナンスを実現する方法について解説する。
AIガバナンスは、AIの重大な社会的意味のため、リアクティブでなければならない、と我々は主張する一方で、政策立案者や政府は、再現性プロトコルをガバナンス兵器の中核的なツールとして考慮し、AI研究のより高い標準を要求するべきである。
データと数字を複製するコード:https://github.com/IFMW01/reproducibility-the-new-frontier-in-ai-governance
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Advancing Science- and Evidence-based AI Policy [163.43609502905707]
本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
論文 参考訳(メタデータ) (2025-08-02T23:20:58Z) - HH4AI: A methodological Framework for AI Human Rights impact assessment under the EUAI ACT [1.7754875105502606]
論文では、自律性、データ、目標指向設計によって駆動される、AIの変革的な性質を強調している。
重要な課題は、業界全体での“ハイリスク”なAIシステムの定義と評価である。
リスクを分離し、評価するために設計されたゲートベースのフレームワークである、基本的権利影響評価(FRIA)手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T19:10:14Z) - Transfeminist AI Governance [0.0]
記事は、トランスフェミニストレンズを通して人工知能(AI)のガバナンスを再想像する。
トランスフェミニストとフェミニストの倫理理論に基づいて、トランスフェミニストのAIガバナンスへのアプローチを紹介します。
論文 参考訳(メタデータ) (2025-03-19T20:25:59Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。