論文の概要: Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims
- arxiv url: http://arxiv.org/abs/2004.07213v2
- Date: Mon, 20 Apr 2020 19:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 09:09:37.525989
- Title: Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims
- Title(参考訳): 信頼できるAI開発に向けて - 検証可能な主張を支援するメカニズム
- Authors: Miles Brundage, Shahar Avin, Jasmine Wang, Haydn Belfield, Gretchen
Krueger, Gillian Hadfield, Heidy Khlaaf, Jingying Yang, Helen Toner, Ruth
Fong, Tegan Maharaj, Pang Wei Koh, Sara Hooker, Jade Leung, Andrew Trask,
Emma Bluemke, Jonathan Lebensold, Cullen O'Keefe, Mark Koren, Th\'eo Ryffel,
JB Rubinovitz, Tamay Besiroglu, Federica Carugati, Jack Clark, Peter
Eckersley, Sarah de Haas, Maritza Johnson, Ben Laurie, Alex Ingerman, Igor
Krawczuk, Amanda Askell, Rosario Cammarota, Andrew Lohn, David Krueger,
Charlotte Stix, Peter Henderson, Logan Graham, Carina Prunkl, Bianca Martin,
Elizabeth Seger, Noa Zilberman, Se\'an \'O h\'Eigeartaigh, Frens Kroeger,
Girish Sastry, Rebecca Kagan, Adrian Weller, Brian Tse, Elizabeth Barnes,
Allan Dafoe, Paul Scharre, Ariel Herbert-Voss, Martijn Rasser, Shagun
Sodhani, Carrick Flynn, Thomas Krendl Gilbert, Lisa Dyer, Saif Khan, Yoshua
Bengio, Markus Anderljung
- Abstract要約: AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
- 参考スコア(独自算出の注目度): 59.64274607533249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the recent wave of progress in artificial intelligence (AI) has come a
growing awareness of the large-scale impacts of AI systems, and recognition
that existing regulations and norms in industry and academia are insufficient
to ensure responsible AI development. In order for AI developers to earn trust
from system users, customers, civil society, governments, and other
stakeholders that they are building AI responsibly, they will need to make
verifiable claims to which they can be held accountable. Those outside of a
given organization also need effective means of scrutinizing such claims. This
report suggests various steps that different stakeholders can take to improve
the verifiability of claims made about AI systems and their associated
development processes, with a focus on providing evidence about the safety,
security, fairness, and privacy protection of AI systems. We analyze ten
mechanisms for this purpose--spanning institutions, software, and hardware--and
make recommendations aimed at implementing, exploring, or improving those
mechanisms.
- Abstract(参考訳): 人工知能(AI)の最近の進展により、AIシステムの大規模な影響に対する認識が高まり、産業や学界における既存の規制や規範がAI開発に責任を負うのに不十分であるという認識が高まっている。
AI開発者がシステムユーザ、顧客、市民社会、政府、その他の利害関係者からAI構築の責任を負うように信頼を得るためには、彼らが責任を負うことができるか検証可能な主張を行う必要がある。
特定の組織外の人たちも、このような主張を精査する効果的な手段が必要です。
このレポートは、さまざまな利害関係者がAIシステムとその関連する開発プロセスに関するクレームの妥当性を改善するためのさまざまなステップを示唆し、AIシステムの安全性、セキュリティ、公正性、プライバシ保護に関する証拠を提供することに重点を置いている。
我々は、この目的の機関、ソフトウェア、ハードウェアの10のメカニズムを分析し、それらのメカニズムの実装、探索、または改善を目的とした推奨を行う。
関連論文リスト
- Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。