論文の概要: Trustworthy AI Inference Systems: An Industry Research View
- arxiv url: http://arxiv.org/abs/2008.04449v1
- Date: Mon, 10 Aug 2020 23:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:47:10.206230
- Title: Trustworthy AI Inference Systems: An Industry Research View
- Title(参考訳): 信頼できるai推論システム:業界研究の視点
- Authors: Rosario Cammarota, Matthias Schunter, Anand Rajan, Fabian Boemer,
\'Agnes Kiss, Amos Treiber, Christian Weinert, Thomas Schneider, Emmanuel
Stapf, Ahmad-Reza Sadeghi, Daniel Demmler, Huili Chen, Siam Umar Hussain,
Sadegh Riazi, Farinaz Koushanfar, Saransh Gupta, Tajan Simunic Rosing,
Kamalika Chaudhuri, Hamid Nejatollahi, Nikil Dutt, Mohsen Imani, Kim Laine,
Anuj Dubey, Aydin Aysu, Fateme Sadat Hosseini, Chengmo Yang, Eric Wallace,
Pamela Norton
- Abstract要約: 我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
- 参考スコア(独自算出の注目度): 58.000323504158054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we provide an industry research view for approaching the
design, deployment, and operation of trustworthy Artificial Intelligence (AI)
inference systems. Such systems provide customers with timely, informed, and
customized inferences to aid their decision, while at the same time utilizing
appropriate security protection mechanisms for AI models. Additionally, such
systems should also use Privacy-Enhancing Technologies (PETs) to protect
customers' data at any time.
To approach the subject, we start by introducing trends in AI inference
systems. We continue by elaborating on the relationship between Intellectual
Property (IP) and private data protection in such systems. Regarding the
protection mechanisms, we survey the security and privacy building blocks
instrumental in designing, building, deploying, and operating private AI
inference systems. For example, we highlight opportunities and challenges in AI
systems using trusted execution environments combined with more recent advances
in cryptographic techniques to protect data in use. Finally, we outline areas
of further development that require the global collective attention of
industry, academia, and government researchers to sustain the operation of
trustworthy AI inference systems.
- Abstract(参考訳): 本研究では,信頼できる人工知能(AI)推論システムの設計,展開,運用にアプローチするための産業研究の視点を提供する。
このようなシステムは、aiモデルの適切なセキュリティ保護メカニズムを活用すると同時に、意思決定を支援するために、タイムリーでインフォームドでカスタマイズされた推論を顧客に提供します。
さらに、このようなシステムは、いつでも顧客のデータを保護するために、Privacy-Enhancing Technologies(PET)を使用する必要がある。
この問題にアプローチするために、AI推論システムにトレンドを導入することから始める。
このようなシステムにおける知的財産権(IP)とプライベートデータ保護の関係について検討を続ける。
保護機構に関しては、プライベートAI推論システムの設計、構築、デプロイ、運用に有用なセキュリティとプライバシ構築ブロックを調査します。
例えば、信頼できる実行環境を使用するaiシステムの機会と課題と、使用中のデータを保護する暗号技術のより最近の進歩を強調する。
最後に,信頼に値するai推論システムの運用を維持するために,産業,学界,政府研究者のグローバルな集合的注意を必要とする,さらなる発展の領域について概説する。
関連論文リスト
- Trustworthy Distributed AI Systems: Robustness, Privacy, and Governance [14.941040909919327]
分散AIシステムは、経済的および社会的影響を増大させることで、ビッグデータコンピューティングとデータ処理能力に革命をもたらしている。
近年の研究では、AIシステムのセキュリティ、プライバシ、公平性の問題に起因する新たな攻撃面とリスクが特定されている。
我々は、信頼できる分散AIのための代表的技術、アルゴリズム、理論的基礎についてレビューする。
論文 参考訳(メタデータ) (2024-02-02T01:58:58Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - AI Assurance using Causal Inference: Application to Public Policy [0.0]
ほとんどのAIアプローチは、"ブラックボックス"としてのみ表現することができ、透明性の欠如に悩まされる。
効果的で堅牢なAIシステムを開発するだけでなく、内部プロセスが説明可能で公平であることを確認することも重要です。
論文 参考訳(メタデータ) (2021-12-01T16:03:06Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Federated Learning for Industrial Internet of Things in Future
Industries [106.13524161081355]
産業用IoT(Industrial Internet of Things)は,産業用システムの運用を変革する有望な機会を提供する。
近年、人工知能(AI)はインテリジェントIIoTアプリケーションの実現に広く利用されている。
フェデレートラーニング(FL)は、複数のIIoTデバイスとマシンを協調して、ネットワークエッジでAIトレーニングを実行することで、インテリジェントなIIoTネットワークにとって特に魅力的である。
論文 参考訳(メタデータ) (2021-05-31T01:02:59Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。