論文の概要: What Is AI Safety? What Do We Want It to Be?
- arxiv url: http://arxiv.org/abs/2505.02313v1
- Date: Mon, 05 May 2025 01:55:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.543024
- Title: What Is AI Safety? What Do We Want It to Be?
- Title(参考訳): AIの安全性とは何か?
- Authors: Jacqueline Harding, Cameron Domenico Kirk-Giannini,
- Abstract要約: 研究プロジェクトは、AIシステムによって引き起こされる害を防ぎ、軽減しようとする場合にのみ、AIの安全性の見地に入る。
その単純さと魅力にもかかわらず、私たちは、AI安全研究者と組織がAI安全について考え話し合う方法に関して、少なくとも2つのトレンドと緊張関係にあると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of AI safety seeks to prevent or reduce the harms caused by AI systems. A simple and appealing account of what is distinctive of AI safety as a field holds that this feature is constitutive: a research project falls within the purview of AI safety just in case it aims to prevent or reduce the harms caused by AI systems. Call this appealingly simple account The Safety Conception of AI safety. Despite its simplicity and appeal, we argue that The Safety Conception is in tension with at least two trends in the ways AI safety researchers and organizations think and talk about AI safety: first, a tendency to characterize the goal of AI safety research in terms of catastrophic risks from future systems; second, the increasingly popular idea that AI safety can be thought of as a branch of safety engineering. Adopting the methodology of conceptual engineering, we argue that these trends are unfortunate: when we consider what concept of AI safety it would be best to have, there are compelling reasons to think that The Safety Conception is the answer. Descriptively, The Safety Conception allows us to see how work on topics that have historically been treated as central to the field of AI safety is continuous with work on topics that have historically been treated as more marginal, like bias, misinformation, and privacy. Normatively, taking The Safety Conception seriously means approaching all efforts to prevent or mitigate harms from AI systems based on their merits rather than drawing arbitrary distinctions between them.
- Abstract(参考訳): AIの安全性の分野は、AIシステムによって引き起こされる害を予防または軽減することを目指している。
フィールドとしてのAIの安全性の特徴をシンプルかつ魅力的な説明として、この機能は構成的である:研究プロジェクトは、AIシステムによって引き起こされる害を予防または軽減することを目的とした場合に、AIの安全性のパースペクティブに該当する。
The Safety Conception of AI safety(AIの安全性の概念)と呼ぶ。
その単純さと魅力にもかかわらず、私たちはAI安全の概念がAI安全研究者や組織がAI安全について考え、話し合う方法の少なくとも2つの傾向と緊張していると論じている。
概念工学の方法論を採用することで、これらの傾向は不運である、と論じる。AIの安全性のどの概念が最善かを考えると、The Safety Conceptionが答えであると考えるための説得力のある理由があります。
具体的には、The Safety Conceptionは、これまでAI安全の分野の中心として扱われてきたトピックの作業が、偏見、誤情報、プライバシといった、これまでより縁遠いものとして扱われてきたトピックの作業と連続していることを確認することができます。
厳密には、The Safety Conceptionを真剣に考えることは、AIシステムから害を防いだり軽減するためのあらゆる努力にアプローチすることを意味している。
関連論文リスト
- AI Safety for Everyone [3.440579243843689]
AIの安全性に関する最近の議論と研究は、AIの安全性と高度なAIシステムからの現実的リスクとの深いつながりを強調している。
このフレーミングは、AIの安全性にコミットしているが、異なる角度から分野にアプローチする研究者や実践者を排除する可能性がある。
私たちは、現在のAIシステムに対する即時的で実践的な懸念に対処する、数多くの具体的な安全作業を見つけました。
論文 参考訳(メタデータ) (2025-02-13T13:04:59Z) - Why do Experts Disagree on Existential Risk and P(doom)? A Survey of AI Experts [0.0]
破滅的なリスクとAIアライメントに関する研究は、専門家による懐疑的な見方がしばしばある。
AIの実在するリスクに関するオンライン議論が、部族化し始めた。
AIの安全性の概念に精通している111人のAI専門家を調査しました。
論文 参考訳(メタデータ) (2025-01-25T01:51:29Z) - Trustworthy, Responsible, and Safe AI: A Comprehensive Architectural Framework for AI Safety with Challenges and Mitigations [15.946242944119385]
AI安全性は、AIシステムの安全な採用とデプロイにおいて重要な領域である。
私たちの目標は、AI安全研究の進歩を促進し、究極的には、デジタルトランスフォーメーションに対する人々の信頼を高めることです。
論文 参考訳(メタデータ) (2024-08-23T09:33:48Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - AI Safety: Necessary, but insufficient and possibly problematic [1.6797508081737678]
この記事では、AI安全性に関する最近の誇大広告について批判的に考察する。
AIの安全性」とは実際に何を意味するのかを考察し、AIの安全性のデジタルフットプリントが持つ支配的な概念を概説する。
私たちは、AIの安全性が、悪用され有害なAIに安全を害することで、構造的危害を助長するAIを正規化する方法に関する懸念を共有します。
論文 参考訳(メタデータ) (2024-03-26T06:18:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。