論文の概要: International AI Safety Report
- arxiv url: http://arxiv.org/abs/2501.17805v1
- Date: Wed, 29 Jan 2025 17:47:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:55:10.297834
- Title: International AI Safety Report
- Title(参考訳): 国際AI安全レポート
- Authors: Yoshua Bengio, Sören Mindermann, Daniel Privitera, Tamay Besiroglu, Rishi Bommasani, Stephen Casper, Yejin Choi, Philip Fox, Ben Garfinkel, Danielle Goldfarb, Hoda Heidari, Anson Ho, Sayash Kapoor, Leila Khalatbari, Shayne Longpre, Sam Manning, Vasilios Mavroudis, Mantas Mazeika, Julian Michael, Jessica Newman, Kwan Yee Ng, Chinasa T. Okolo, Deborah Raji, Girish Sastry, Elizabeth Seger, Theodora Skeadas, Tobin South, Emma Strubell, Florian Tramèr, Lucia Velasco, Nicole Wheeler, Daron Acemoglu, Olubayo Adekanmbi, David Dalrymple, Thomas G. Dietterich, Edward W. Felten, Pascale Fung, Pierre-Olivier Gourinchas, Fredrik Heintz, Geoffrey Hinton, Nick Jennings, Andreas Krause, Susan Leavy, Percy Liang, Teresa Ludermir, Vidushi Marda, Helen Margetts, John McDermid, Jane Munga, Arvind Narayanan, Alondra Nelson, Clara Neppel, Alice Oh, Gopal Ramchurn, Stuart Russell, Marietje Schaake, Bernhard Schölkopf, Dawn Song, Alvaro Soto, Lee Tiedrich, Gaël Varoquaux, Andrew Yao, Ya-Qin Zhang, Fahad Albalawi, Marwan Alserkal, Olubunmi Ajala, Guillaume Avrin, Christian Busch, André Carlos Ponce de Leon Ferreira de Carvalho, Bronwyn Fox, Amandeep Singh Gill, Ahmet Halit Hatip, Juha Heikkilä, Gill Jolly, Ziv Katzir, Hiroaki Kitano, Antonio Krüger, Chris Johnson, Saif M. Khan, Kyoung Mu Lee, Dominic Vincent Ligot, Oleksii Molchanovskyi, Andrea Monti, Nusu Mwamanzi, Mona Nemer, Nuria Oliver, José Ramón López Portillo, Balaraman Ravindran, Raquel Pezoa Rivera, Hammam Riza, Crystal Rugege, Ciarán Seoighe, Jerry Sheehan, Haroon Sheikh, Denise Wong, Yi Zeng,
- Abstract要約: 報告書は英国ブレッチリーで開催されたAI Safety Summitに出席する各国によって委任された。
30カ国、国連、OECD、EUはそれぞれ報告書の専門顧問パネルの代表を指名した。
合計で100人のAI専門家が貢献し、さまざまな視点と規律を表現した。
- 参考スコア(独自算出の注目度): 229.2592111700666
- License:
- Abstract: The first International AI Safety Report comprehensively synthesizes the current evidence on the capabilities, risks, and safety of advanced AI systems. The report was mandated by the nations attending the AI Safety Summit in Bletchley, UK. Thirty nations, the UN, the OECD, and the EU each nominated a representative to the report's Expert Advisory Panel. A total of 100 AI experts contributed, representing diverse perspectives and disciplines. Led by the report's Chair, these independent experts collectively had full discretion over the report's content.
- Abstract(参考訳): 第1回国際AI安全レポートは、先進的なAIシステムの能力、リスク、安全性に関する現在の証拠を包括的に要約している。
報告書は英国ブレッチリーで開催されたAI Safety Summitに出席する各国によって委任された。
30カ国、国連、OECD、EUはそれぞれ報告書の専門顧問パネルの代表を指名した。
合計で100人のAI専門家が貢献し、さまざまな視点と規律を表現した。
報告書の議長に率いられたこれらの独立した専門家は、報告書の内容について完全な判断権を持っていた。
関連論文リスト
- The Role of AI Safety Institutes in Contributing to International Standards for Frontier AI Safety [0.0]
我々は、AI安全研究所(AISI)が、AI安全のための国際標準設定プロセスに貢献するように適切に設定されていると論じる。
我々は、ソウル宣言署名者、米国(およびその他のソウル宣言署名者)、中国、グローバル包括的3つのモデルを提案し、評価する。
論文 参考訳(メタデータ) (2024-09-17T16:12:54Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - US-China perspectives on extreme AI risks and global governance [0.0]
私たちは、先進的な人工知能による安全とセキュリティの脅威を各国の専門家がどのように表現するかをよりよく理解しようとしました。
我々は、AI(Artificial General Intelligence, AGI)のような高度な人工知能の形式に着目した分析を行った。
両国の専門家は、AGIからのリスク、諜報機関の爆発によるリスク、そして人間のコントロールから逃れるAIシステムからのリスクについて懸念を表明した。
論文 参考訳(メタデータ) (2024-06-23T17:31:27Z) - OlympicArena: Benchmarking Multi-discipline Cognitive Reasoning for Superintelligent AI [73.75520820608232]
我々は,11,163のバイリンガル問題を含む,テキストのみとインターリーブされたテキストイメージのモダリティを紹介する。
これらの課題には、7つのフィールドと62の国際オリンピック大会にわたる幅広い規律が含まれており、データ漏洩について厳格に調査されている。
我々の評価によると、GPT-4oのような先進モデルでさえ、複雑な推論とマルチモーダル統合における現在のAI制限を反映して、全体的な精度は39.97%しか達成していない。
論文 参考訳(メタデータ) (2024-06-18T16:20:53Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - How to Assess Trustworthy AI in Practice [0.22740899647050103]
Z-Inspection$smallcircledR$は、AIベースの技術の信頼性を評価するための総合的なプロセスである。
欧州連合の高レベルエキスパートグループ(EU HLEG)のガイドラインを信頼に値するAIに使用。
論文 参考訳(メタデータ) (2022-06-20T16:46:21Z) - The State of AI Ethics Report (October 2020) [30.265104923077185]
State of AI Ethicsは、2020年7月以来、AI倫理の分野で最も重要な発展を捉えている。
このレポートは、機械学習の専門家から人権活動家や政策立案者まで、あらゆる人が、この分野の絶え間なく変化する発展を素早く理解し理解することを目指している。
State of AI Ethicsには、大学、研究機関、コンサルティング会社、政府からの世界レベルのAI倫理の専門家によって書かれた排他的コンテンツが含まれている。
論文 参考訳(メタデータ) (2020-11-05T12:36:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。