論文の概要: Towards AI-$45^{\circ}$ Law: A Roadmap to Trustworthy AGI
- arxiv url: http://arxiv.org/abs/2412.14186v1
- Date: Sun, 08 Dec 2024 14:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:39:32.661396
- Title: Towards AI-$45^{\circ}$ Law: A Roadmap to Trustworthy AGI
- Title(参考訳): AI-$45^{\circ}の法則に向けて:信頼できるAGIへの道のり
- Authors: Yang Chao, Lu Chaochao, Wang Yingchun, Zhou Bowen,
- Abstract要約: 我々は、信頼できるAGIに向けたバランスのとれたロードマップの指針として、textitAI-textbf$45circ$ Lawを提案する。
我々は,Trustworthy AGI の TextitCausal Ladder を実践的なフレームワークとして紹介する。
- 参考スコア(独自算出の注目度): 1.2499537119440245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring Artificial General Intelligence (AGI) reliably avoids harmful behaviors is a critical challenge, especially for systems with high autonomy or in safety-critical domains. Despite various safety assurance proposals and extreme risk warnings, comprehensive guidelines balancing AI safety and capability remain lacking. In this position paper, we propose the \textit{AI-\textbf{$45^{\circ}$} Law} as a guiding principle for a balanced roadmap toward trustworthy AGI, and introduce the \textit{Causal Ladder of Trustworthy AGI} as a practical framework. This framework provides a systematic taxonomy and hierarchical structure for current AI capability and safety research, inspired by Judea Pearl's ``Ladder of Causation''. The Causal Ladder comprises three core layers: the Approximate Alignment Layer, the Intervenable Layer, and the Reflectable Layer. These layers address the key challenges of safety and trustworthiness in AGI and contemporary AI systems. Building upon this framework, we define five levels of trustworthy AGI: perception, reasoning, decision-making, autonomy, and collaboration trustworthiness. These levels represent distinct yet progressive aspects of trustworthy AGI. Finally, we present a series of potential governance measures to support the development of trustworthy AGI.\footnote{In this paper, trustworthiness is generally considered a broad form of safety, and no explicit distinction is made between the two. However, in some contexts, safety and trustworthiness are treated as distinct: safety involves assurance of correct behavior, while trustworthiness refers to user confidence in the system's decision-making. In such cases, different terms or both may be used depending on the context.
- Abstract(参考訳): 人工知能(AGI)を確実に回避することは、特に自律性の高いシステムや安全クリティカルな領域において重要な課題である。
さまざまな安全保証の提案と極端なリスク警告にもかかわらず、AIの安全性と能力のバランスをとる包括的なガイドラインは依然として不足している。
本稿では,信頼に値するAGIに向けたバランスのとれたロードマップの指針として,<textit{AI-\textbf{$45^{\circ}$} Law}を提案し,実践的な枠組みとして<textit{Causal Ladder of Trustworthy AGI}を紹介した。
このフレームワークは、Judea Pearl氏の‘Ladder of Causation’にインスパイアされた、現在のAI能力と安全性研究のための体系的な分類と階層構造を提供する。
因果ラダーは、近似アライメント層、インターベンブル層、リフレクタブル層という3つの中核層から構成される。
これらのレイヤは、AGIおよび現代のAIシステムの安全性と信頼性に関する重要な課題に対処する。
この枠組みに基づいて、私たちは、認識、推論、意思決定、自律性、コラボレーションの信頼性という、信頼できるAGIの5つのレベルを定義します。
これらのレベルは、信頼できるAGIの際立った、しかし進歩的な側面を表している。
最後に、信頼に値するAGIの開発を支援するためのガバナンス対策の一連の可能性を提示する。
この論文では、信頼感は一般的に幅広い種類の安全と見なされ、両者を明確に区別するものではない。
しかし、ある文脈では、安全と信頼性は別々に扱われる: 安全は正しい行動の保証を伴い、信頼性はシステムの意思決定におけるユーザの信頼を意味する。
このような場合、文脈によって異なる用語または両方を使用することができる。
関連論文リスト
- Security-First AI: Foundations for Robust and Trustworthy Systems [0.0]
この原稿は、AIセキュリティは基礎的なレイヤとして優先順位付けされなければならないことを示唆している。
私たちは、信頼できるレジリエントなAIシステムを実現するために、セキュリティ優先のアプローチを主張します。
論文 参考訳(メタデータ) (2025-04-17T22:53:01Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - A Framework for the Assurance of AI-Enabled Systems [0.0]
本稿では,AIシステムのリスク管理と保証のためのクレームベースのフレームワークを提案する。
論文のコントリビューションは、AI保証のためのフレームワークプロセス、関連する定義のセット、AI保証における重要な考慮事項に関する議論である。
論文 参考訳(メタデータ) (2025-04-03T13:44:01Z) - Responsible Artificial Intelligence Systems: A Roadmap to Society's Trust through Trustworthy AI, Auditability, Accountability, and Governance [37.10526074040908]
本稿では, 包括的観点から, 責任あるAIシステムの概念を考察する。
論文の最終目標は、責任あるAIシステムの設計におけるロードマップの提案である。
論文 参考訳(メタデータ) (2025-02-04T14:47:30Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [64.59151650272477]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。