論文の概要: Distributed Trust Through the Lens of Software Architecture
- arxiv url: http://arxiv.org/abs/2306.08056v1
- Date: Thu, 25 May 2023 06:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-18 12:09:25.362484
- Title: Distributed Trust Through the Lens of Software Architecture
- Title(参考訳): ソフトウェアアーキテクチャのレンズを通しての分散信頼
- Authors: Sin Kit Lo, Yue Liu, Guangsheng Yu, Qinghua Lu, Xiwei Xu, and Liming
Zhu
- Abstract要約: 本稿では,複数の分野における分散信頼の概念について考察する。
信頼の再分配/シフトと、分散信頼技術によって実現されるシステムやアプリケーションにおける関連するトレードオフを見るには、システム/ソフトウェアアーキテクチャの観点から考える必要があります。
- 参考スコア(独自算出の注目度): 13.732161898452377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed trust is a nebulous concept that has evolved from different
perspectives in recent years. While one can attribute its current prominence to
blockchain and cryptocurrency, the distributed trust concept has been
cultivating progress in federated learning, trustworthy and responsible AI in
an ecosystem setting, data sharing, privacy issues across organizational
boundaries, and zero trust cybersecurity. This paper will survey the concept of
distributed trust in multiple disciplines. It will take a system/software
architecture point of view to look at trust redistribution/shift and the
associated tradeoffs in systems and applications enabled by distributed trust
technologies.
- Abstract(参考訳): 分散信頼(Distributed Trust)は,近年,さまざまな視点から発展した,誤った概念だ。
現在の優位性はブロックチェーンと暗号通貨にあるが、分散信頼の概念は、フェデレーション学習の進歩、信頼に値する、責任あるAIのエコシステム設定、データ共有、組織の境界を越えたプライバシー問題、信頼できないサイバーセキュリティを育んでいる。
本稿では,複数の分野における分散信頼の概念について検討する。
システム/ソフトウェアアーキテクチャの観点からは、信頼の再分配/シフトと、分散信頼技術によって実現されるシステムやアプリケーションの関連するトレードオフを検討する必要がある。
関連論文リスト
- Fostering Trust and Quantifying Value of AI and ML [0.0]
AIとML推論の信頼について多くの議論がなされているが、それが何を意味するのかを定義するためにはほとんど行われていない。
より信頼できる機械学習推論を生み出すことは、製品の価値を高めるための道です。
論文 参考訳(メタデータ) (2024-07-08T13:25:28Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - The Ecosystem of Trust (EoT): Enabling effective deployment of
autonomous systems through collaborative and trusted ecosystems [0.0]
技術展開を支援するための信頼のエコシステムを提案する。
信頼を正当化するための根拠として定義された保証は、アプローチを実現するための前提条件である、と我々は主張する。
論文 参考訳(メタデータ) (2023-12-01T14:47:36Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - On the Importance of Trust in Next-Generation Networked CPS Systems: An
AI Perspective [2.1055643409860734]
本稿では,ネットワークエージェントの状態を評価し,意思決定プロセスを改善する手段として信頼を提案する。
信頼関係は、プロトコル内のエンティティの相互作用によって生成された証拠に基づいている。
信頼の証拠を活用することで,フェデレートラーニングのパフォーマンスと安全性が向上することを示す。
論文 参考訳(メタデータ) (2021-04-16T02:12:13Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。