論文の概要: Predictable Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2310.06167v2
- Date: Tue, 08 Oct 2024 12:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:28:06.804145
- Title: Predictable Artificial Intelligence
- Title(参考訳): 予測可能な人工知能
- Authors: Lexin Zhou, Pablo A. Moreno-Casares, Fernando Martínez-Plumed, John Burden, Ryan Burnell, Lucy Cheke, Cèsar Ferri, Alexandru Marcoci, Behzad Mehrbakhsh, Yael Moros-Daval, Seán Ó hÉigeartaigh, Danaja Rutar, Wout Schellaert, Konstantinos Voudouris, José Hernández-Orallo,
- Abstract要約: 本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
- 参考スコア(独自算出の注目度): 77.1127726638209
- License:
- Abstract: We introduce the fundamental ideas and challenges of Predictable AI, a nascent research area that explores the ways in which we can anticipate key validity indicators (e.g., performance, safety) of present and future AI ecosystems. We argue that achieving predictability is crucial for fostering trust, liability, control, alignment and safety of AI ecosystems, and thus should be prioritised over performance. We formally characterise predictability, explore its most relevant components, illustrate what can be predicted, describe alternative candidates for predictors, as well as the trade-offs between maximising validity and predictability. To illustrate these concepts, we bring an array of illustrative examples covering diverse ecosystem configurations. Predictable AI is related to other areas of technical and non-technical AI research, but have distinctive questions, hypotheses, techniques and challenges. This paper aims to elucidate them, calls for identifying paths towards a landscape of predictably valid AI systems and outlines the potential impact of this emergent field.
- Abstract(参考訳): 我々は、現在および将来のAIエコシステムの重要な妥当性指標(例えば、性能、安全性)を予測できる方法を探求する、先進的な研究領域である予測可能なAIの基本的なアイデアと課題を紹介します。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠であり、パフォーマンスよりも優先されるべきである、と私たちは主張する。
我々は、予測可能性を正式に評価し、最も関連性の高いコンポーネントを探索し、予測できるものを記述し、予測者の代替候補を記述し、妥当性の最大化と予測可能性のトレードオフを記述します。
これらの概念を説明するために、多様なエコシステム構成をカバーする一連の例を紹介します。
予測可能なAIは、技術的および非技術的AI研究の他の分野に関連しているが、固有の疑問、仮説、技術、課題を持っている。
本稿では,これらを解明し,予測可能なAIシステムの景観への道筋を特定し,この創発的分野の潜在的影響を概説する。
関連論文リスト
- The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Modeling Transformative AI Risks (MTAIR) Project -- Summary Report [0.0]
このレポートは、Cottier氏とShah氏による以前の図に基づいており、いくつかの説明とともに、視覚的に重要な不一致(クラックス)をいくつか説明した。
このモデルは、アナロジーと人工知能に関する一般的な以前の信念による推論に関する議論から始まる。
さまざまなパスのモデルをレイアウトし、ハイレベルなマシンインテリジェンスのためのテクノロジーと、これらのシステムの能力の進歩のモデルを構築している。
このモデルは、学習した最適化の問題や、機械学習システムがメザ最適化を作成するかどうかについても特に注目している。
論文 参考訳(メタデータ) (2022-06-19T09:11:23Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Forecasting AI Progress: A Research Agenda [0.41998444721319206]
本稿では,AIの進歩を予測するための研究課題の開発について述べる。
Delphiのテクニックを使って、どの質問や方法に優先順位をつけるか、専門家の意見を導き、集約する。
専門家は、AIの進捗を予測するための様々な方法を検討するべきだと述べた。
論文 参考訳(メタデータ) (2020-08-04T21:46:46Z) - AI Research Considerations for Human Existential Safety (ARCHES) [6.40842967242078]
負の言葉で言えば、我々は人類が次の世紀のAI開発から直面する現実的なリスクを問う。
Emphprepotenceという,仮説AI技術の鍵となる性質
その後、既存の安全に対する潜在的な利益のために、現代の研究方向の集合が検討される。
論文 参考訳(メタデータ) (2020-05-30T02:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。