論文の概要: International AI Safety Report 2025: First Key Update: Capabilities and Risk Implications
- arxiv url: http://arxiv.org/abs/2510.13653v1
- Date: Wed, 15 Oct 2025 15:13:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.729361
- Title: International AI Safety Report 2025: First Key Update: Capabilities and Risk Implications
- Title(参考訳): 国際AI安全レポート2025:最初の重要なアップデート:能力とリスク含意
- Authors: Yoshua Bengio, Stephen Clare, Carina Prunkl, Shalaleh Rismani, Maksym Andriushchenko, Ben Bucknall, Philip Fox, Tiancheng Hu, Cameron Jones, Sam Manning, Nestor Maslej, Vasilios Mavroudis, Conor McGlynn, Malcolm Murray, Charlotte Stix, Lucia Velasco, Nicole Wheeler, Daniel Privitera, Sören Mindermann, Daron Acemoglu, Thomas G. Dietterich, Fredrik Heintz, Geoffrey Hinton, Nick Jennings, Susan Leavy, Teresa Ludermir, Vidushi Marda, Helen Margetts, John McDermid, Jane Munga, Arvind Narayanan, Alondra Nelson, Clara Neppel, Gopal Ramchurn, Stuart Russell, Marietje Schaake, Bernhard Schölkopf, Alavaro Soto, Lee Tiedrich, Gaël Varoquaux, Andrew Yao, Ya-Qin Zhang, Leandro Aguirre, Olubunmi Ajala, Fahad Albalawi Noora AlMalek, Christian Busch, André Carvalho, Jonathan Collas, Amandeep Gill, Ahmet Hatip, Juha Heikkilä, Chris Johnson, Gill Jolly, Ziv Katzir, Mary Kerema, Hiroaki Kitano, Antonio Krüger, Aoife McLysaght, Oleksii Molchanovskyi, Andrea Monti, Kyoung Mu Lee, Mona Nemer, Nuria Oliver, Raquel Pezoa, Audrey Plonk, José Portillo, Balaraman Ravindran, Hammam Riza, Crystal Rugege, Haroon Sheikh, Denise Wong, Yi Zeng, Liming Zhu,
- Abstract要約: 今回のアップデートは、AIの能力が最初のAI Safety Reportからどのように改善されたかを調べるものだ。
重大な新たな証拠が評価を更新する重要なリスク領域に焦点を当てている。
- 参考スコア(独自算出の注目度): 118.49965571969089
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since the publication of the first International AI Safety Report, AI capabilities have continued to improve across key domains. New training techniques that teach AI systems to reason step-by-step and inference-time enhancements have primarily driven these advances, rather than simply training larger models. As a result, general-purpose AI systems can solve more complex problems in a range of domains, from scientific research to software development. Their performance on benchmarks that measure performance in coding, mathematics, and answering expert-level science questions has continued to improve, though reliability challenges persist, with systems excelling on some tasks while failing completely on others. These capability improvements also have implications for multiple risks, including risks from biological weapons and cyber attacks. Finally, they pose new challenges for monitoring and controllability. This update examines how AI capabilities have improved since the first Report, then focuses on key risk areas where substantial new evidence warrants updated assessments.
- Abstract(参考訳): 第1回国際AI安全レポートの公開以来、AI能力は主要な領域にわたって改善され続けている。
ステップバイステップと推論時間の強化を推論するようにAIシステムに教える新しいトレーニングテクニックは、単により大きなモデルをトレーニングするのではなく、主にこれらの進歩を導いてきた。
その結果、汎用AIシステムは、科学研究からソフトウェア開発まで、さまざまな領域でより複雑な問題を解決することができる。
コーディング、数学、専門家レベルの科学問題に対する回答のパフォーマンスを測定するベンチマークのパフォーマンスは改善を続けているが、信頼性の課題は継続し、システムはいくつかのタスクに優れており、他のタスクは完全に失敗している。
これらの能力の改善は、生物兵器によるリスクやサイバー攻撃など、複数のリスクにも影響する。
最後に、監視と制御性に新たな課題を提起する。
今回のアップデートでは、AIの能力が最初のレポートからどのように改善されたかを調べ、重要なリスク領域に焦点が当てられている。
関連論文リスト
- The Singapore Consensus on Global AI Safety Research Priorities [128.58674892183657]
2025年シンガポールAI会議(SCAI: International Scientific Exchange on AI Safety)は、この分野での研究を支援することを目的としている。
ヨシュア・ベンジオが議長を務める国際AI安全レポート(AI Safety Report)は、33の政府によって支援されている。
レポートは、AI安全研究ドメインを3つのタイプに分類する。信頼に値するAIシステム(開発)作成の課題、リスク評価の課題(評価)、デプロイメント後の監視と介入の課題(会議)。
論文 参考訳(メタデータ) (2025-06-25T17:59:50Z) - Report on NSF Workshop on Science of Safe AI [75.96202715567088]
機械学習の新たな進歩は、社会問題に対する技術ベースのソリューションを開発する新たな機会につながっている。
AIの約束を果たすためには、正確でパフォーマンスが高く、安全で信頼性の高いAIベースのシステムを開発する方法に取り組む必要がある。
本報告はワークショップの安全性の異なる側面に対処した作業グループにおける議論の結果である。
論文 参考訳(メタデータ) (2025-06-24T18:55:29Z) - Ontology-Aware RAG for Improved Question-Answering in Cybersecurity Education [13.838970688067725]
AIによる質問応答(QA)システムは、サイバーセキュリティの問題解決における不確実性を積極的に管理することができる。
大規模言語モデル(LLM)は、高度な言語理解とユーザエンゲージメントを提供するAI駆動のQAシステムで注目を集めている。
我々は,サイバーセキュリティ教育における信頼性および安全性の高いQAシステムを開発するための,オントロジー対応検索強化世代(RAG)アプローチであるCyberRAGを提案する。
論文 参考訳(メタデータ) (2024-12-10T21:52:35Z) - Standardization Trends on Safety and Trustworthiness Technology for Advanced AI [0.0]
大規模言語モデルと基礎モデルに基づく最近のAI技術は、人工知能に近づいたり、超えたりしている。
これらの進歩は、高度なAIの安全性と信頼性に関する懸念を引き起こしている。
AIの安全性と信頼性を確保するため、国際的に合意された標準を開発するための努力が実施されている。
論文 参考訳(メタデータ) (2024-10-29T15:50:24Z) - Trustworthy, Responsible, and Safe AI: A Comprehensive Architectural Framework for AI Safety with Challenges and Mitigations [15.946242944119385]
AI安全性は、AIシステムの安全な採用とデプロイにおいて重要な領域である。
私たちの目標は、AI安全研究の進歩を促進し、究極的には、デジタルトランスフォーメーションに対する人々の信頼を高めることです。
論文 参考訳(メタデータ) (2024-08-23T09:33:48Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。