論文の概要: AI safety: state of the field through quantitative lens
- arxiv url: http://arxiv.org/abs/2002.05671v2
- Date: Thu, 9 Jul 2020 11:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 20:33:39.572641
- Title: AI safety: state of the field through quantitative lens
- Title(参考訳): AIの安全性: 定量レンズによるフィールドの状態
- Authors: Mislav Juric, Agneza Sandic, Mario Brcic
- Abstract要約: AIの安全性は、人間にとって有益なAIを構築する技術に焦点を当てた比較的新しい研究分野である。
AIに関する具体的なポリシーに関する研究は、極めて不足している。
AIが社会の変化の主要な推進力になることを期待しているので、AIの安全性は人類の将来の方向性を決定する必要がある分野です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Last decade has seen major improvements in the performance of artificial
intelligence which has driven wide-spread applications. Unforeseen effects of
such mass-adoption has put the notion of AI safety into the public eye. AI
safety is a relatively new field of research focused on techniques for building
AI beneficial for humans. While there exist survey papers for the field of AI
safety, there is a lack of a quantitative look at the research being conducted.
The quantitative aspect gives a data-driven insight about the emerging trends,
knowledge gaps and potential areas for future research. In this paper,
bibliometric analysis of the literature finds significant increase in research
activity since 2015. Also, the field is so new that most of the technical
issues are open, including: explainability with its long-term utility, and
value alignment which we have identified as the most important long-term
research topic. Equally, there is a severe lack of research into concrete
policies regarding AI. As we expect AI to be the one of the main driving forces
of changes in society, AI safety is the field under which we need to decide the
direction of humanity's future.
- Abstract(参考訳): この10年、人工知能の性能が大幅に改善され、幅広い応用が推進された。
このような大量適応の予期せぬ影響は、AIの安全性という概念を公衆の目に当てはめた。
AIの安全性は、人間にとって有益なAIを構築する技術に焦点を当てた比較的新しい研究分野である。
AIの安全性に関する調査論文は存在するが、現在行われている研究を定量的に見ることはできない。
定量的側面は、今後の研究の新たなトレンド、知識ギャップ、潜在的な領域に関するデータ駆動的な洞察を与える。
本稿では,文献の書誌分析により,2015年以降,研究活動の著しい増加が確認された。
また、この分野は極めて新しいので、その長期的なユーティリティとの説明可能性や、私たちが最も重要な長期的な研究トピックとして特定した価値アライメントなど、ほとんどの技術的な問題がオープンになっている。
同様に、AIに関する具体的な政策に関する研究が著しく欠落している。
AIが社会の変化の主要な推進力の1つになることを期待しているように、AIの安全性は人類の未来を決定づけるために必要な分野である。
関連論文リスト
- SoK: On the Offensive Potential of AI [14.072632973726906]
ますます多くの証拠が、AIが攻撃目的にも使われていることを示している。
現存する研究は、AIの攻撃的可能性の全体像を描けなかった。
論文 参考訳(メタデータ) (2024-12-24T14:02:44Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - A Survey of the Potential Long-term Impacts of AI [0.0]
人工知能の進歩が社会に大きな長期的影響をもたらすと認識されている。
AIの長期的な影響を5つ特定し、議論する。
論文 参考訳(メタデータ) (2022-06-22T13:42:28Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - The Threats of Artificial Intelligence Scale (TAI). Development,
Measurement and Test Over Three Application Domains [0.0]
いくつかの世論調査は、自律ロボットと人工知能(FARAI)の公衆の恐怖を頻繁に問う
我々は、AIシステムの4つの機能クラスを考慮し、AIアプリケーションの様々な領域に適用可能な、AIの脅威知覚を測定するためのきめ細かいスケールを提案する。
データは提案されたAIのThreats of AI(TAI)スケールの次元構造と、インジケータの内部一貫性と因子的妥当性をサポートする。
論文 参考訳(メタデータ) (2020-06-12T14:15:02Z) - The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse? [0.0]
人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
論文 参考訳(メタデータ) (2019-12-27T10:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。