論文の概要: Towards AI-$45^{\circ}$ Law: A Roadmap to Trustworthy AGI
- arxiv url: http://arxiv.org/abs/2412.14186v1
- Date: Sun, 08 Dec 2024 14:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-22 08:06:08.101737
- Title: Towards AI-$45^{\circ}$ Law: A Roadmap to Trustworthy AGI
- Title(参考訳): AI-$45^{\circ}の法則に向けて:信頼できるAGIへの道のり
- Authors: Yang Chao, Lu Chaochao, Wang Yingchun, Zhou Bowen,
- Abstract要約: 我々は、信頼できるAGIに向けたバランスのとれたロードマップの指針として、textitAI-textbf$45circ$ Lawを提案する。
我々は,Trustworthy AGI の TextitCausal Ladder を実践的なフレームワークとして紹介する。
- 参考スコア(独自算出の注目度): 1.2499537119440245
- License:
- Abstract: Ensuring Artificial General Intelligence (AGI) reliably avoids harmful behaviors is a critical challenge, especially for systems with high autonomy or in safety-critical domains. Despite various safety assurance proposals and extreme risk warnings, comprehensive guidelines balancing AI safety and capability remain lacking. In this position paper, we propose the \textit{AI-\textbf{$45^{\circ}$} Law} as a guiding principle for a balanced roadmap toward trustworthy AGI, and introduce the \textit{Causal Ladder of Trustworthy AGI} as a practical framework. This framework provides a systematic taxonomy and hierarchical structure for current AI capability and safety research, inspired by Judea Pearl's ``Ladder of Causation''. The Causal Ladder comprises three core layers: the Approximate Alignment Layer, the Intervenable Layer, and the Reflectable Layer. These layers address the key challenges of safety and trustworthiness in AGI and contemporary AI systems. Building upon this framework, we define five levels of trustworthy AGI: perception, reasoning, decision-making, autonomy, and collaboration trustworthiness. These levels represent distinct yet progressive aspects of trustworthy AGI. Finally, we present a series of potential governance measures to support the development of trustworthy AGI.\footnote{In this paper, trustworthiness is generally considered a broad form of safety, and no explicit distinction is made between the two. However, in some contexts, safety and trustworthiness are treated as distinct: safety involves assurance of correct behavior, while trustworthiness refers to user confidence in the system's decision-making. In such cases, different terms or both may be used depending on the context.
- Abstract(参考訳): 人工知能(AGI)を確実に回避することは、特に自律性の高いシステムや安全クリティカルな領域において重要な課題である。
さまざまな安全保証の提案と極端なリスク警告にもかかわらず、AIの安全性と能力のバランスをとる包括的なガイドラインは依然として不足している。
本稿では,信頼に値するAGIに向けたバランスのとれたロードマップの指針として,<textit{AI-\textbf{$45^{\circ}$} Law}を提案し,実践的な枠組みとして<textit{Causal Ladder of Trustworthy AGI}を紹介した。
このフレームワークは、Judea Pearl氏の‘Ladder of Causation’にインスパイアされた、現在のAI能力と安全性研究のための体系的な分類と階層構造を提供する。
因果ラダーは、近似アライメント層、インターベンブル層、リフレクタブル層という3つの中核層から構成される。
これらのレイヤは、AGIおよび現代のAIシステムの安全性と信頼性に関する重要な課題に対処する。
この枠組みに基づいて、私たちは、認識、推論、意思決定、自律性、コラボレーションの信頼性という、信頼できるAGIの5つのレベルを定義します。
これらのレベルは、信頼できるAGIの際立った、しかし進歩的な側面を表している。
最後に、信頼に値するAGIの開発を支援するためのガバナンス対策の一連の可能性を提示する。
この論文では、信頼感は一般的に幅広い種類の安全と見なされ、両者を明確に区別するものではない。
しかし、ある文脈では、安全と信頼性は別々に扱われる: 安全は正しい行動の保証を伴い、信頼性はシステムの意思決定におけるユーザの信頼を意味する。
このような場合、文脈によって異なる用語または両方を使用することができる。
関連論文リスト
- The Game-Theoretic Symbiosis of Trust and AI in Networked Systems [13.343937277604892]
この章では、人工知能(AI)とネットワークシステムにおける信頼の共生関係について論じる。
我々は、AIによって動的に管理される信頼が、いかにレジリエントなセキュリティエコシステムを形成するかを検討する。
論文 参考訳(メタデータ) (2024-11-19T21:04:53Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - Explainable AI is Responsible AI: How Explainability Creates Trustworthy
and Socially Responsible Artificial Intelligence [9.844540637074836]
これは責任あるAIのトピックであり、信頼できるAIシステムを開発する必要性を強調している。
XAIは、責任あるAI(RAI)のためのビルディングブロックとして広く考えられている。
以上の結果から,XAIはRAIのすべての柱にとって不可欠な基盤である,という結論に至った。
論文 参考訳(メタデータ) (2023-12-04T00:54:04Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [64.59151650272477]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。