論文の概要: Understanding the First Wave of AI Safety Institutes: Characteristics, Functions, and Challenges
- arxiv url: http://arxiv.org/abs/2410.09219v1
- Date: Fri, 11 Oct 2024 19:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 15:43:17.610697
- Title: Understanding the First Wave of AI Safety Institutes: Characteristics, Functions, and Challenges
- Title(参考訳): AI安全研究所の第一波を理解する:特徴,機能,課題
- Authors: Renan Araujo, Kristina Fort, Oliver Guest,
- Abstract要約: 2023年11月、英国と米国はAI安全研究所の創設を発表した。
このプライマーは「第1波」という類似のクラスターの1つのクラスタを記述する。
第一波にはいくつかの基本的な特徴がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In November 2023, the UK and US announced the creation of their AI Safety Institutes (AISIs). Five other jurisdictions have followed in establishing AISIs or similar institutions, with more likely to follow. While there is considerable variation between these institutions, there are also key similarities worth identifying. This primer describes one cluster of similar AISIs, the "first wave," consisting of the Japan, UK, and US AISIs. First-wave AISIs have several fundamental characteristics in common: they are technical government institutions, have a clear mandate related to the safety of advanced AI systems, and lack regulatory powers. Safety evaluations are at the center of first-wave AISIs. These techniques test AI systems across tasks to understand their behavior and capabilities on relevant risks, such as cyber, chemical, and biological misuse. They also share three core functions: research, standards, and cooperation. These functions are critical to AISIs' work on safety evaluations but also support other activities such as scientific consensus-building and foundational AI safety research. Despite its growing popularity as an institutional model, the AISI model is not free from challenges and limitations. Some analysts have criticized the first wave of AISIs for specializing too much in a sub-area and for being potentially redundant with existing institutions, for example. Future developments may rapidly change this landscape, and particularities of individual AISIs may not be captured by our broad-strokes description. This policy brief aims to outline the core elements of first-wave AISIs as a way of encouraging and improving conversations on this novel institutional model, acknowledging this is just a simplified snapshot rather than a timeless prescription.
- Abstract(参考訳): 2023年11月、イギリスと米国はAI安全研究所(AISI)の創設を発表した。
その他の5つの管轄区域はAISIや同様の機関の設立に追随しており、それに続く可能性が高い。
これらの機関には大きな違いはあるが、識別する価値のある重要な類似点もある。
このプライマーは、日本、イギリス、アメリカのAISIからなる、類似したAISIの1つのクラスタを記述している。
第一波AISIは、技術的機関であり、高度なAIシステムの安全性に関する明確な義務を持ち、規制権限を欠いている。
安全評価は第一波AISIの中心にある。
これらのテクニックは、タスク全体にわたるAIシステムをテストし、サイバー、化学、生物学的誤用など、関連するリスクに対する行動と能力を理解する。
また、研究、標準、協力の3つの中心的機能を共有している。
これらの機能は、AISIの安全性評価の研究に不可欠であるが、科学的なコンセンサス構築や基礎的なAI安全研究などの他の活動も支援している。
制度モデルとしての人気が高まっているにもかかわらず、AISIモデルには課題や制限がない。
一部のアナリストは、AISIがサブエリアで過剰に専門化されていることや、既存の機関と重複している可能性があることを批判している。
今後の発展によって、この状況は急速に変化し、個々のAISIの特殊性は、我々の広範な記述によって捉えられなくなるかもしれない。
このポリシーブリーフィングは、第一波AISIの中核となる要素を、この新しい制度モデル上での会話を奨励し改善する方法として概説することを目的としており、これは単なる単純なスナップショットにすぎないことを認めている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - The Role of AI Safety Institutes in Contributing to International Standards for Frontier AI Safety [0.0]
我々は、AI安全研究所(AISI)が、AI安全のための国際標準設定プロセスに貢献するように適切に設定されていると論じる。
我々は、ソウル宣言署名者、米国(およびその他のソウル宣言署名者)、中国、グローバル包括的3つのモデルを提案し、評価する。
論文 参考訳(メタデータ) (2024-09-17T16:12:54Z) - AI Horizon Scanning, White Paper p3395, IEEE-SA. Part I: Areas of Attention [0.22470290096767004]
この写本は、IEEE-SAのp3995: Safeguards, Controls, and Preventive Techniques for Artificial Intelligence (AI) Modelsの標準化を知らせる一連の白書の最初のものである。
この最初の地平線スキャンでは、AIにおける標準活動の重要な注意領域を特定します。
規制の取り組みに対する異なる原則を検討し、説明責任、プライバシ、データ権利、誤用の概念をレビューする。
論文 参考訳(メタデータ) (2024-09-13T18:00:01Z) - The potential functions of an international institution for AI safety. Insights from adjacent policy areas and recent trends [0.0]
OECD、G7、G20、ユネスコ、欧州評議会はすでに倫理的かつ責任あるAIガバナンスのためのフレームワークの開発を始めている。
この章は、国際AI安全機関が実行可能な機能について考察する。
論文 参考訳(メタデータ) (2024-08-31T10:04:53Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Hard Choices in Artificial Intelligence [0.8594140167290096]
この曖昧さは数学的形式主義だけでは解決できないことを示す。
この曖昧さは数学的形式主義だけでは解決できないことを示す。
論文 参考訳(メタデータ) (2021-06-10T09:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。