論文の概要: International AI Safety Report 2025: Second Key Update: Technical Safeguards and Risk Management
- arxiv url: http://arxiv.org/abs/2511.19863v1
- Date: Tue, 25 Nov 2025 03:12:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.24757
- Title: International AI Safety Report 2025: Second Key Update: Technical Safeguards and Risk Management
- Title(参考訳): 国際AI安全レポート2025: 第二のキーアップデート: 技術的安全とリスク管理
- Authors: Yoshua Bengio, Stephen Clare, Carina Prunkl, Maksym Andriushchenko, Ben Bucknall, Philip Fox, Nestor Maslej, Conor McGlynn, Malcolm Murray, Shalaleh Rismani, Stephen Casper, Jessica Newman, Daniel Privitera, Sören Mindermann, Daron Acemoglu, Thomas G. Dietterich, Fredrik Heintz, Geoffrey Hinton, Nick Jennings, Susan Leavy, Teresa Ludermir, Vidushi Marda, Helen Margetts, John McDermid, Jane Munga, Arvind Narayanan, Alondra Nelson, Clara Neppel, Gopal Ramchurn, Stuart Russell, Marietje Schaake, Bernhard Schölkopf, Alavaro Soto, Lee Tiedrich, Gaël Varoquaux, Andrew Yao, Ya-Qin Zhang, Leandro Aguirre, Olubunmi Ajala, Fahad Albalawi, Noora AlMalek, Christian Busch, André Carvalho, Jonathan Collas, Amandeep Gill, Ahmet Hatip, Juha Heikkilä, Chris Johnson, Gill Jolly, Ziv Katzir, Mary Kerema, Hiroaki Kitano, Antonio Krüger, Aoife McLysaght, Oleksii Molchanovskyi, Andrea Monti, Kyoung Mu Lee, Mona Nemer, Nuria Oliver, Raquel Pezoa, Audrey Plonk, José Portillo, Balaraman Ravindran, Hammam Riza, Crystal Rugege, Haroon Sheikh, Denise Wong, Yi Zeng, Liming Zhu,
- Abstract要約: 2025年の国際AI安全レポートの第2の更新は、この1年で汎用AIリスク管理の新しい展開を評価している。
研究者、公共機関、AI開発者が汎用AIのリスク管理にどのようにアプローチしているかを調べる。
- 参考スコア(独自算出の注目度): 115.92752850425272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This second update to the 2025 International AI Safety Report assesses new developments in general-purpose AI risk management over the past year. It examines how researchers, public institutions, and AI developers are approaching risk management for general-purpose AI. In recent months, for example, three leading AI developers applied enhanced safeguards to their new models, as their internal pre-deployment testing could not rule out the possibility that these models could be misused to help create biological weapons. Beyond specific precautionary measures, there have been a range of other advances in techniques for making AI models and systems more reliable and resistant to misuse. These include new approaches in adversarial training, data curation, and monitoring systems. In parallel, institutional frameworks that operationalise and formalise these technical capabilities are starting to emerge: the number of companies publishing Frontier AI Safety Frameworks more than doubled in 2025, and governments and international organisations have established a small number of governance frameworks for general-purpose AI, focusing largely on transparency and risk assessment.
- Abstract(参考訳): 2025年の国際AI安全レポートのこの2回目のアップデートは、この1年で汎用AIリスク管理の新展開を評価している。
研究者、公共機関、AI開発者が汎用AIのリスク管理にどのようにアプローチしているかを調べる。
例えば、最近の数ヶ月で3人の先進的なAI開発者が新しいモデルに強化された安全ガードを適用した。
特定の予防措置以外にも、AIモデルやシステムをより信頼性が高く、誤用に耐性のあるものにする技術には、さまざまな進歩があった。
これには、敵のトレーニング、データキュレーション、監視システムにおける新しいアプローチが含まれる。
2025年にFrontier AI Safety Frameworksを発行する企業の数は倍増し、政府や国際機関は、透明性とリスクアセスメントを中心に、汎用AIのための少数のガバナンスフレームワークを確立している。
関連論文リスト
- International AI Safety Report 2025: First Key Update: Capabilities and Risk Implications [118.49965571969089]
今回のアップデートは、AIの能力が最初のAI Safety Reportからどのように改善されたかを調べるものだ。
重大な新たな証拠が評価を更新する重要なリスク領域に焦点を当てている。
論文 参考訳(メタデータ) (2025-10-15T15:13:49Z) - The 2025 OpenAI Preparedness Framework does not guarantee any AI risk mitigation practices: a proof-of-concept for affordance analyses of AI safety policies [35.43144920451646]
OpenAI 'Preparedness Framework Version 2' (2025年4月) は、余裕のメカニズムと条件モデルとMIT AI Risk Repositoryを用いて分析する。
この安全ポリシーは、少数のAIリスクの評価を要求し、意図せずに「致命的な危害」を可能にする'Medium'機能を備えたシステムのデプロイを奨励する。
これらの結果は、AIリスクの効果的な緩和には、現在の業界自己規制を超えて、より堅牢なガバナンス介入が必要であることを示唆している。
論文 参考訳(メタデータ) (2025-09-29T07:42:10Z) - Report on NSF Workshop on Science of Safe AI [75.96202715567088]
機械学習の新たな進歩は、社会問題に対する技術ベースのソリューションを開発する新たな機会につながっている。
AIの約束を果たすためには、正確でパフォーマンスが高く、安全で信頼性の高いAIベースのシステムを開発する方法に取り組む必要がある。
本報告はワークショップの安全性の異なる側面に対処した作業グループにおける議論の結果である。
論文 参考訳(メタデータ) (2025-06-24T18:55:29Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。