論文の概要: Expert Survey: AI Reliability & Security Research Priorities
- arxiv url: http://arxiv.org/abs/2505.21664v1
- Date: Tue, 27 May 2025 18:44:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.235104
- Title: Expert Survey: AI Reliability & Security Research Priorities
- Title(参考訳): 専門家調査:AIの信頼性とセキュリティ研究の優先順位
- Authors: Joe O'Brien, Jeremy Dolan, Jay Kim, Jonah Dykhuizen, Jeba Sania, Sebastian Becker, Jam Kraprayoon, Cara Labrador,
- Abstract要約: 105のAI信頼性とセキュリティ研究領域にわたる53人の専門家を対象に調査を行い、最も有望な研究の見通しを明らかにした。
この研究は、AIの安全性とセキュリティ研究の方向性を包括的に分類し、専門家の優先順位を定量化した最初のものである。
- 参考スコア(独自算出の注目度): 0.28106259549258145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our survey of 53 specialists across 105 AI reliability and security research areas identifies the most promising research prospects to guide strategic AI R&D investment. As companies are seeking to develop AI systems with broadly human-level capabilities, research on reliability and security is urgently needed to ensure AI's benefits can be safely and broadly realized and prevent severe harms. This study is the first to quantify expert priorities across a comprehensive taxonomy of AI safety and security research directions and to produce a data-driven ranking of their potential impact. These rankings may support evidence-based decisions about how to effectively deploy resources toward AI reliability and security research.
- Abstract(参考訳): 105のAI信頼性とセキュリティ研究領域にわたる53人の専門家を対象に調査を行い、戦略的AI研究開発投資を導く最も有望な研究の見通しを特定しました。
企業が幅広い人間レベルの能力を持つAIシステムを開発しようとしているため、AIのメリットを安全かつ広範囲に実現し、深刻な被害を防ぐために、信頼性とセキュリティの研究が緊急に必要である。
この研究は、AIの安全性とセキュリティ研究の方向性を包括的に分類して専門家の優先順位を定量化し、その潜在的な影響をデータ駆動でランク付けする最初のものである。
これらのランキングは、AIの信頼性とセキュリティ研究にリソースを効果的にデプロイする方法に関するエビデンスベースの決定を支援する可能性がある。
関連論文リスト
- The Singapore Consensus on Global AI Safety Research Priorities [128.58674892183657]
2025年シンガポールAI会議(SCAI: International Scientific Exchange on AI Safety)は、この分野での研究を支援することを目的としている。
ヨシュア・ベンジオが議長を務める国際AI安全レポート(AI Safety Report)は、33の政府によって支援されている。
レポートは、AI安全研究ドメインを3つのタイプに分類する。信頼に値するAIシステム(開発)作成の課題、リスク評価の課題(評価)、デプロイメント後の監視と介入の課題(会議)。
論文 参考訳(メタデータ) (2025-06-25T17:59:50Z) - Accountability of Robust and Reliable AI-Enabled Systems: A Preliminary Study and Roadmap [1.8816378259778017]
本稿では,AI対応システムの堅牢性と信頼性を評価するための最初の研究について述べる。
この研究は、これらの概念の定義を進化させ、現在の文献をレビューすることによって、この分野における大きな課題とアプローチを浮き彫りにしている。
説明責任の法人化は、信頼の構築と責任あるAI開発を保証するために不可欠である。
論文 参考訳(メタデータ) (2025-06-20T08:35:11Z) - Responsible Development of Offensive AI [0.0]
本研究は、リスクに対する社会的利益のバランスをとるための優先順位を確立することを目的とする。
この研究で評価された攻撃的AIの2つの形態は、Capture-The-Flag問題を解決する脆弱性検出エージェントとAIを利用したマルウェアである。
論文 参考訳(メタデータ) (2025-04-03T15:37:38Z) - A Framework for the Assurance of AI-Enabled Systems [0.0]
本稿では,AIシステムのリスク管理と保証のためのクレームベースのフレームワークを提案する。
論文のコントリビューションは、AI保証のためのフレームワークプロセス、関連する定義のセット、AI保証における重要な考慮事項に関する議論である。
論文 参考訳(メタデータ) (2025-04-03T13:44:01Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - AI Safety for Everyone [3.440579243843689]
AIの安全性に関する最近の議論と研究は、AIの安全性と高度なAIシステムからの現実的リスクとの深いつながりを強調している。
このフレーミングは、AIの安全性にコミットしているが、異なる角度から分野にアプローチする研究者や実践者を排除する可能性がある。
私たちは、現在のAIシステムに対する即時的で実践的な懸念に対処する、数多くの具体的な安全作業を見つけました。
論文 参考訳(メタデータ) (2025-02-13T13:04:59Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。