論文の概要: Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims
- arxiv url: http://arxiv.org/abs/2004.07213v2
- Date: Mon, 20 Apr 2020 19:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 09:09:37.525989
- Title: Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims
- Title(参考訳): 信頼できるAI開発に向けて - 検証可能な主張を支援するメカニズム
- Authors: Miles Brundage, Shahar Avin, Jasmine Wang, Haydn Belfield, Gretchen
Krueger, Gillian Hadfield, Heidy Khlaaf, Jingying Yang, Helen Toner, Ruth
Fong, Tegan Maharaj, Pang Wei Koh, Sara Hooker, Jade Leung, Andrew Trask,
Emma Bluemke, Jonathan Lebensold, Cullen O'Keefe, Mark Koren, Th\'eo Ryffel,
JB Rubinovitz, Tamay Besiroglu, Federica Carugati, Jack Clark, Peter
Eckersley, Sarah de Haas, Maritza Johnson, Ben Laurie, Alex Ingerman, Igor
Krawczuk, Amanda Askell, Rosario Cammarota, Andrew Lohn, David Krueger,
Charlotte Stix, Peter Henderson, Logan Graham, Carina Prunkl, Bianca Martin,
Elizabeth Seger, Noa Zilberman, Se\'an \'O h\'Eigeartaigh, Frens Kroeger,
Girish Sastry, Rebecca Kagan, Adrian Weller, Brian Tse, Elizabeth Barnes,
Allan Dafoe, Paul Scharre, Ariel Herbert-Voss, Martijn Rasser, Shagun
Sodhani, Carrick Flynn, Thomas Krendl Gilbert, Lisa Dyer, Saif Khan, Yoshua
Bengio, Markus Anderljung
- Abstract要約: AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
- 参考スコア(独自算出の注目度): 59.64274607533249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the recent wave of progress in artificial intelligence (AI) has come a
growing awareness of the large-scale impacts of AI systems, and recognition
that existing regulations and norms in industry and academia are insufficient
to ensure responsible AI development. In order for AI developers to earn trust
from system users, customers, civil society, governments, and other
stakeholders that they are building AI responsibly, they will need to make
verifiable claims to which they can be held accountable. Those outside of a
given organization also need effective means of scrutinizing such claims. This
report suggests various steps that different stakeholders can take to improve
the verifiability of claims made about AI systems and their associated
development processes, with a focus on providing evidence about the safety,
security, fairness, and privacy protection of AI systems. We analyze ten
mechanisms for this purpose--spanning institutions, software, and hardware--and
make recommendations aimed at implementing, exploring, or improving those
mechanisms.
- Abstract(参考訳): 人工知能(AI)の最近の進展により、AIシステムの大規模な影響に対する認識が高まり、産業や学界における既存の規制や規範がAI開発に責任を負うのに不十分であるという認識が高まっている。
AI開発者がシステムユーザ、顧客、市民社会、政府、その他の利害関係者からAI構築の責任を負うように信頼を得るためには、彼らが責任を負うことができるか検証可能な主張を行う必要がある。
特定の組織外の人たちも、このような主張を精査する効果的な手段が必要です。
このレポートは、さまざまな利害関係者がAIシステムとその関連する開発プロセスに関するクレームの妥当性を改善するためのさまざまなステップを示唆し、AIシステムの安全性、セキュリティ、公正性、プライバシ保護に関する証拠を提供することに重点を置いている。
我々は、この目的の機関、ソフトウェア、ハードウェアの10のメカニズムを分析し、それらのメカニズムの実装、探索、または改善を目的とした推奨を行う。
関連論文リスト
- The Necessity of AI Audit Standards Boards [0.0]
我々は、監査基準の作成は不十分であるだけでなく、無害で一貫性のない基準を広めることによって積極的に有害であると主張している。
代わりに、監査方法と標準を開発・更新する責任を持つAI監査基準委員会(AI Audit Standards Board)の設立を提案する。
論文 参考訳(メタデータ) (2024-04-11T15:08:24Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。