論文の概要: Bridging Today and the Future of Humanity: AI Safety in 2024 and Beyond
- arxiv url: http://arxiv.org/abs/2410.18114v1
- Date: Wed, 09 Oct 2024 05:36:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:11:57.003212
- Title: Bridging Today and the Future of Humanity: AI Safety in 2024 and Beyond
- Title(参考訳): 現代と人類の未来:2024年以降のAI安全
- Authors: Shanshan Han,
- Abstract要約: あらゆる物のインターネットが現実になる未来を概説する。
この青写真に対する現在の取り組みを推し進めることで、現在のモチベーションと長期的ニーズの整合性を検討する。
このビジョンペーパーは、AIの安全性に関するより広い視点を提供することを目的としており、我々の取り組みは緊急の懸念に対処するだけでなく、潜在的なリスクを予測すべきである、と強調している。
- 参考スコア(独自算出の注目度): 3.7991557674345713
- License:
- Abstract: Significant progress has been made in AI safety. However, as this field thrives, a critical question emerges: Are our current efforts aligned with the broader perspective of history and human civilization? This paper presents a blueprint for an advanced human society and leverages this vision to guide contemporary AI safety efforts. We outline a future where the Internet of Everything becomes reality, and create a roadmap that represents significant technological advancements towards this envisioned future. For each stage of advancement, we forecast potential AI safety issues that humanity may face. By projecting current efforts against this blueprint, we examine the alignment between the present motivations and long-term needs. We identify gaps in current approaches and highlight unique challenges and missions that demand increasing attention from AI safety practitioners in the 2020s, addressing critical areas that must not be overlooked in shaping a safe and responsible future for AI development. This vision paper aims to offer a broader perspective on AI safety, emphasizing that our efforts should not only address immediate concerns but also anticipate potential risks in the expanding AI landscape, thereby fostering AI's role in promoting a more secure and sustainable future for human civilization.
- Abstract(参考訳): AIの安全性は重要な進歩を遂げた。
しかし、この分野が成長するにつれて、批判的な疑問が浮かび上がってくる。我々の現在の取り組みは、歴史と人類文明のより広い視点と一致しているか?
本稿では、先進的な人間社会の青写真を示し、このビジョンを活用して、現代AIの安全性の取り組みをガイドする。
我々は、あらゆる物のインターネットが現実になる未来を概説し、この構想された未来に向けて重要な技術的進歩を示すロードマップを作成します。
進歩の各段階で、人類が直面する可能性のあるAIの安全性の問題を予測する。
この青写真に対する現在の取り組みを推し進めることで、現在のモチベーションと長期的ニーズの整合性を検討する。
私たちは現在のアプローチのギャップを特定し、2020年代のAI安全実践者から注目を喚起するユニークな課題とミッションを強調し、AI開発における安全で責任ある未来を形作る上で見過ごさなければならない重要な領域に対処します。
このビジョンペーパーは、AIの安全性に関するより広い視点を提供することを目的としており、我々の努力は、直ちに懸念に対処するだけでなく、拡大するAIの展望における潜在的なリスクを予測し、人間の文明にとってより安全で持続可能な未来を促進する上でのAIの役割を促進するべきである、と強調している。
関連論文リスト
- Trustworthy, Responsible, and Safe AI: A Comprehensive Architectural Framework for AI Safety with Challenges and Mitigations [14.150792596344674]
AI安全性は、AIシステムの安全な採用とデプロイにおいて重要な領域である。
私たちの目標は、AI安全研究の進歩を促進し、究極的には、デジタルトランスフォーメーションに対する人々の信頼を高めることです。
論文 参考訳(メタデータ) (2024-08-23T09:33:48Z) - AI in Action: Accelerating Progress Towards the Sustainable Development Goals [4.09375125119842]
私たちは、国連の持続可能な開発目標に対する行動を促進するAIの可能性を示すために、Googleの内部および共同研究、技術的作業、および社会的影響イニシアチブを描いています。
この論文では、コンピュータビジョン、生成AI、自然言語処理、マルチモーダルAIを含むAIの能力を強調し、AIが17のSDGすべてにまたがる問題解決へのアプローチをどのように変えているかを示している。
そして私たちは、大胆で責任あるイノベーションを推進し、インパクトを高め、アクセシビリティのギャップを埋め、すべての人がAIから恩恵を受けられるように、AI開発とデプロイメントに関する洞察を提供します。
論文 参考訳(メタデータ) (2024-07-02T23:25:27Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - ChatGPT, Large Language Technologies, and the Bumpy Road of Benefiting
Humanity [2.28438857884398]
AI技術がすべての人類に利益をもたらすという約束は、人類が世界的不平等を拡大し、実在の脅威を迫られる状況に直面していると想定されていることの、微妙な理解が欠如している限り、空白である。
我々はまた、単に投機的な質問とよく調査された質問を区別する、持続的で公平な方法で標準を開発する必要がある。
このような失敗は、私たちのAI技術の進歩が、倫理的および社会的意味をナビゲートする能力を上回る未来をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-04-21T22:53:45Z) - A Systematic Literature Review of Human-Centered, Ethical, and
Responsible AI [12.456385305888341]
我々は、AIの倫理的、社会的、人的要因に関する主要な会議から164の論文をレビューし分析する。
私たちは、AI研究におけるガバナンスと公正性に現在重点を置いていることは、AIの予期せぬ、未知の意味に適切に対処しないかもしれないことに気付きました。
論文 参考訳(メタデータ) (2023-02-10T14:47:33Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - AI safety: state of the field through quantitative lens [0.0]
AIの安全性は、人間にとって有益なAIを構築する技術に焦点を当てた比較的新しい研究分野である。
AIに関する具体的なポリシーに関する研究は、極めて不足している。
AIが社会の変化の主要な推進力になることを期待しているので、AIの安全性は人類の将来の方向性を決定する必要がある分野です。
論文 参考訳(メタデータ) (2020-02-12T11:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。