論文の概要: Confidential Computing Transparency
- arxiv url: http://arxiv.org/abs/2409.03720v1
- Date: Thu, 5 Sep 2024 17:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 19:43:43.709904
- Title: Confidential Computing Transparency
- Title(参考訳): 信用計算の透明性
- Authors: Ceren Kocaoğullar, Tina Marjanov, Ivan Petrov, Ben Laurie, Al Cutter, Christoph Kern, Alice Hutchings, Alastair R. Beresford,
- Abstract要約: 本稿では,段階的な透明性を有する信頼性コンピューティング透明性フレームワークを提案する。
このフレームワークは、レビュアーに説明責任を組み込むことによって、オープンソースのコードや監査のような現在の手段を越えている。
私たちの結びついたアプローチは、複雑な現実世界のシステムにおいて透明性を実現するための実践的な経路を提供します。
- 参考スコア(独自算出の注目度): 7.9699781371465965
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Confidential Computing is a security paradigm designed to protect data in-use by leveraging hardware-based Trusted Execution Environments (TEEs). While TEEs offer significant security benefits, the need for user trust remains a challenge, as attestation alone cannot guarantee the absence of vulnerabilities or backdoors. To address this, we propose a Confidential Computing Transparency framework with progressive levels of transparency. This framework goes beyond current measures like open-source code and audits by incorporating accountability for reviewers and robust technical safeguards, creating a comprehensive trust chain. Our tiered approach provides a practical pathway to achieving transparency in complex, real-world systems. Through a user study with 400 participants, we demonstrate that higher levels of transparency are associated with increased user comfort, particularly for sensitive data types.
- Abstract(参考訳): Confidential Computingは、ハードウェアベースのTrusted Execution Environments(TEEs)を活用することで、データ使用を保護するために設計されたセキュリティパラダイムである。
TEEは重大なセキュリティ上のメリットを提供するが、認証だけで脆弱性やバックドアの欠如を保証できないため、ユーザ信頼の必要性は依然として課題である。
この問題に対処するため,我々は,段階的な透明性を有する信頼度コンピューティング透明性フレームワークを提案する。
このフレームワークは、レビュアーへの説明責任と堅牢な技術的保護を取り入れ、包括的な信頼連鎖を作ることによって、オープンソースのコードや監査のような現在の手段を越えています。
私たちの結びついたアプローチは、複雑な現実世界のシステムにおいて透明性を実現するための実践的な経路を提供します。
400人の参加者によるユーザスタディを通じて、高レベルの透明性がユーザの快適性、特に機密データタイプに結びついていることが実証された。
関連論文リスト
- The Pitfalls of "Security by Obscurity" And What They Mean for Transparent AI [4.627627425427264]
透明性のメリットに関するセキュリティコミュニティの視点では,3つの重要なテーマを特定します。
次に、匿名化研究のサブフィールドを透明性がいかに形成したかについてのケーススタディの議論を行う。
論文 参考訳(メタデータ) (2025-01-30T17:04:35Z) - Balancing Confidentiality and Transparency for Blockchain-based Process-Aware Information Systems [46.404531555921906]
機密性と透明性の両立を目的とした,ブロックチェーンベースのPAISアーキテクチャを提案する。
スマートコントラクトは公開インタラクションを制定、強制、保存し、属性ベースの暗号化技術は機密情報へのアクセス許可を指定するために採用されている。
論文 参考訳(メタデータ) (2024-12-07T20:18:36Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - The Many Facets of Trust in AI: Formalizing the Relation Between Trust
and Fairness, Accountability, and Transparency [4.003809001962519]
公正性、説明責任、透明性を促進する努力は、AI(Trust in AI, TAI)の育成に不可欠であると考えられている。
信頼そのものへの説明の欠如は、信頼は一般的に理解され、複雑でなく、あるいは興味のないものであることを示唆している。
我々のTAI出版物の分析では、信頼(エージェント)、信頼(エージェント)、何(オブジェクト)、何(ベース)、何(客観的)、何(オブジェクト)、なぜ(インパクト)など、さまざまな方向性が明らかにされている。
論文 参考訳(メタデータ) (2022-08-01T08:26:57Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Applying Transparency in Artificial Intelligence based Personalization
Systems [5.671950073691286]
透明性の向上はパーソナライズベースのシステムにとって重要な目標である。
我々は、技術倫理とコンピュータ科学からの洞察を組み合わせて、機械生成のパーソナライゼーションのための透明性のベストプラクティスのリストを作成します。
これらのベストプラクティスに基づいて,アルゴリズムシステムの透明性を評価し,向上したいと考える設計者が使用するチェックリストを開発した。
論文 参考訳(メタデータ) (2020-04-02T11:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。