論文の概要: International AI Safety Report
- arxiv url: http://arxiv.org/abs/2501.17805v1
- Date: Wed, 29 Jan 2025 17:47:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 22:32:42.681333
- Title: International AI Safety Report
- Title(参考訳): 国際AI安全レポート
- Authors: Yoshua Bengio, Sören Mindermann, Daniel Privitera, Tamay Besiroglu, Rishi Bommasani, Stephen Casper, Yejin Choi, Philip Fox, Ben Garfinkel, Danielle Goldfarb, Hoda Heidari, Anson Ho, Sayash Kapoor, Leila Khalatbari, Shayne Longpre, Sam Manning, Vasilios Mavroudis, Mantas Mazeika, Julian Michael, Jessica Newman, Kwan Yee Ng, Chinasa T. Okolo, Deborah Raji, Girish Sastry, Elizabeth Seger, Theodora Skeadas, Tobin South, Emma Strubell, Florian Tramèr, Lucia Velasco, Nicole Wheeler, Daron Acemoglu, Olubayo Adekanmbi, David Dalrymple, Thomas G. Dietterich, Edward W. Felten, Pascale Fung, Pierre-Olivier Gourinchas, Fredrik Heintz, Geoffrey Hinton, Nick Jennings, Andreas Krause, Susan Leavy, Percy Liang, Teresa Ludermir, Vidushi Marda, Helen Margetts, John McDermid, Jane Munga, Arvind Narayanan, Alondra Nelson, Clara Neppel, Alice Oh, Gopal Ramchurn, Stuart Russell, Marietje Schaake, Bernhard Schölkopf, Dawn Song, Alvaro Soto, Lee Tiedrich, Gaël Varoquaux, Andrew Yao, Ya-Qin Zhang, Fahad Albalawi, Marwan Alserkal, Olubunmi Ajala, Guillaume Avrin, Christian Busch, André Carlos Ponce de Leon Ferreira de Carvalho, Bronwyn Fox, Amandeep Singh Gill, Ahmet Halit Hatip, Juha Heikkilä, Gill Jolly, Ziv Katzir, Hiroaki Kitano, Antonio Krüger, Chris Johnson, Saif M. Khan, Kyoung Mu Lee, Dominic Vincent Ligot, Oleksii Molchanovskyi, Andrea Monti, Nusu Mwamanzi, Mona Nemer, Nuria Oliver, José Ramón López Portillo, Balaraman Ravindran, Raquel Pezoa Rivera, Hammam Riza, Crystal Rugege, Ciarán Seoighe, Jerry Sheehan, Haroon Sheikh, Denise Wong, Yi Zeng,
- Abstract要約: 報告書は英国ブレッチリーで開催されたAI Safety Summitに出席する各国によって委任された。
30カ国、国連、OECD、EUはそれぞれ報告書の専門顧問パネルの代表を指名した。
合計で100人のAI専門家が貢献し、さまざまな視点と規律を表現した。
- 参考スコア(独自算出の注目度): 229.2592111700666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The first International AI Safety Report comprehensively synthesizes the current evidence on the capabilities, risks, and safety of advanced AI systems. The report was mandated by the nations attending the AI Safety Summit in Bletchley, UK. Thirty nations, the UN, the OECD, and the EU each nominated a representative to the report's Expert Advisory Panel. A total of 100 AI experts contributed, representing diverse perspectives and disciplines. Led by the report's Chair, these independent experts collectively had full discretion over the report's content.
- Abstract(参考訳): 第1回国際AI安全レポートは、先進的なAIシステムの能力、リスク、安全性に関する現在の証拠を包括的に要約している。
報告書は英国ブレッチリーで開催されたAI Safety Summitに出席する各国によって委任された。
30カ国、国連、OECD、EUはそれぞれ報告書の専門顧問パネルの代表を指名した。
合計で100人のAI専門家が貢献し、さまざまな視点と規律を表現した。
報告書の議長に率いられたこれらの独立した専門家は、報告書の内容について完全な判断権を持っていた。
関連論文リスト
- AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - AI Safety is Stuck in Technical Terms -- A System Safety Response to the International AI Safety Report [0.0]
安全は、支配的なAIガバナンスの取り組みが形成される中心的な価値となっている。
このレポートは、汎用AIと利用可能な技術的緩和アプローチの安全性リスクに焦点を当てている。
システム安全性の規律は、何十年もの間、ソフトウェアベースのシステムの安全性リスクに対処してきた。
論文 参考訳(メタデータ) (2025-02-05T22:37:53Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - International Scientific Report on the Safety of Advanced AI (Interim Report) [177.9812747487019]
この報告書は、AIの安全性に関する第1回国際科学報告書の暫定的な発表である。
このレポートには、30カ国、EU、国連から指名された国際専門家諮問委員会を含む、75人のAI専門家の多種多様なグループが貢献した。
論文 参考訳(メタデータ) (2024-11-05T15:47:23Z) - The Role of AI Safety Institutes in Contributing to International Standards for Frontier AI Safety [0.0]
我々は、AI安全研究所(AISI)が、AI安全のための国際標準設定プロセスに貢献するように適切に設定されていると論じる。
我々は、ソウル宣言署名者、米国(およびその他のソウル宣言署名者)、中国、グローバル包括的3つのモデルを提案し、評価する。
論文 参考訳(メタデータ) (2024-09-17T16:12:54Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - US-China perspectives on extreme AI risks and global governance [0.0]
私たちは、先進的な人工知能による安全とセキュリティの脅威を各国の専門家がどのように表現するかをよりよく理解しようとしました。
我々は、AI(Artificial General Intelligence, AGI)のような高度な人工知能の形式に着目した分析を行った。
両国の専門家は、AGIからのリスク、諜報機関の爆発によるリスク、そして人間のコントロールから逃れるAIシステムからのリスクについて懸念を表明した。
論文 参考訳(メタデータ) (2024-06-23T17:31:27Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - How to Assess Trustworthy AI in Practice [0.22740899647050103]
Z-Inspection$smallcircledR$は、AIベースの技術の信頼性を評価するための総合的なプロセスである。
欧州連合の高レベルエキスパートグループ(EU HLEG)のガイドラインを信頼に値するAIに使用。
論文 参考訳(メタデータ) (2022-06-20T16:46:21Z) - The State of AI Ethics Report (October 2020) [30.265104923077185]
State of AI Ethicsは、2020年7月以来、AI倫理の分野で最も重要な発展を捉えている。
このレポートは、機械学習の専門家から人権活動家や政策立案者まで、あらゆる人が、この分野の絶え間なく変化する発展を素早く理解し理解することを目指している。
State of AI Ethicsには、大学、研究機関、コンサルティング会社、政府からの世界レベルのAI倫理の専門家によって書かれた排他的コンテンツが含まれている。
論文 参考訳(メタデータ) (2020-11-05T12:36:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。