論文の概要: Forecasting AI Progress: A Research Agenda
- arxiv url: http://arxiv.org/abs/2008.01848v1
- Date: Tue, 4 Aug 2020 21:46:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:48:50.483163
- Title: Forecasting AI Progress: A Research Agenda
- Title(参考訳): aiの進歩を予測する:研究課題
- Authors: Ross Gruetzemacher, Florian Dorner, Niko Bernaola-Alvarez, Charlie
Giattino, David Manheim
- Abstract要約: 本稿では,AIの進歩を予測するための研究課題の開発について述べる。
Delphiのテクニックを使って、どの質問や方法に優先順位をつけるか、専門家の意見を導き、集約する。
専門家は、AIの進捗を予測するための様々な方法を検討するべきだと述べた。
- 参考スコア(独自算出の注目度): 0.41998444721319206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forecasting AI progress is essential to reducing uncertainty in order to
appropriately plan for research efforts on AI safety and AI governance. While
this is generally considered to be an important topic, little work has been
conducted on it and there is no published document that gives and objective
overview of the field. Moreover, the field is very diverse and there is no
published consensus regarding its direction. This paper describes the
development of a research agenda for forecasting AI progress which utilized the
Delphi technique to elicit and aggregate experts' opinions on what questions
and methods to prioritize. The results of the Delphi are presented; the
remainder of the paper follow the structure of these results, briefly reviewing
relevant literature and suggesting future work for each topic. Experts
indicated that a wide variety of methods should be considered for forecasting
AI progress. Moreover, experts identified salient questions that were both
general and completely unique to the problem of forecasting AI progress. Some
of the highest priority topics include the validation of (partially unresolved)
forecasts, how to make forecasting action-guiding and the quality of different
performance metrics. While statistical methods seem more promising, there is
also recognition that supplementing judgmental techniques can be quite
beneficial.
- Abstract(参考訳): AIの安全性とAIガバナンスに関する研究努力を適切に計画するためには、不確実性を減らすためにAIの進歩を予測することが不可欠である。
これは一般的には重要な話題であると考えられているが、ほとんど研究が行われておらず、その分野を概観する文書は公開されていない。
さらに、分野は非常に多様であり、その方向性に関するコンセンサスも公表されていない。
本稿では,Delphi技術を利用したAIの進歩を予測するための研究課題の開発について述べる。
論文の残りはこれらの結果の構造に従い、関連する文献を簡潔にレビューし、各トピックに対する今後の作業を提案する。
専門家は、AIの進捗を予測するための様々な方法を検討するべきだと述べた。
さらに専門家は、AIの進歩を予測する問題に対して、一般的かつ完全に独特な有能な質問を特定した。
最も優先度の高いトピックには、(部分的に解決されていない)予測の検証、予測アクションガイドの方法、さまざまなパフォーマンスメトリクスの品質などがあります。
統計的手法はより有望に思われるが、判断技法を補うことは極めて有益であるという認識もある。
関連論文リスト
- A Systematic Literature Review on Explainability for Machine/Deep
Learning-based Software Engineering Research [23.966640472958105]
本稿では,ソフトウェア工学の文脈におけるAIモデルの説明可能性の向上を目的とした,体系的な文献レビューを行う。
我々は,XAI技術がこれまで成功してきたSEタスク,(2)異なるXAI手法の分類と分析,(3)既存の評価手法を考察することを目的としている。
論文 参考訳(メタデータ) (2024-01-26T03:20:40Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Post-Abstention: Towards Reliably Re-Attempting the Abstained Instances
in QA [24.572043878403353]
本稿では, システムの「包括性」を高めることを目的として, 留置インスタンスの再帰を可能にするタスクである「保留後」について, 爆発的研究を行う。
11のQAデータセットに関する総合的な実験は、これらの手法がかなりのリスク改善につながることを示している。
論文 参考訳(メタデータ) (2023-05-02T22:40:41Z) - Asking Better Questions -- The Art and Science of Forecasting: A
mechanism for truer answers to high-stakes questions [0.0]
AI能力の進歩を見積り、ベンチマークする能力がなければ、組織はそれぞれの変更に対して反応性を持って対応しなければなりません。
本稿では、明示的な仮定と定量的推定を用いた政治科学ツールである予測の最近の成長について考察する。
予測は才能を特定し検証し、リーダーがより良いAI進歩モデルを構築し、デザインポリシーへのインプットを改善することを可能にする。
論文 参考訳(メタデータ) (2023-03-31T12:27:26Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。