論文の概要: Confidential Computing Transparency
- arxiv url: http://arxiv.org/abs/2409.03720v1
- Date: Thu, 5 Sep 2024 17:24:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-06 19:43:43.709904
- Title: Confidential Computing Transparency
- Title(参考訳): 信用計算の透明性
- Authors: Ceren Kocaoğullar, Tina Marjanov, Ivan Petrov, Ben Laurie, Al Cutter, Christoph Kern, Alice Hutchings, Alastair R. Beresford,
- Abstract要約: 本稿では,段階的な透明性を有する信頼性コンピューティング透明性フレームワークを提案する。
このフレームワークは、レビュアーに説明責任を組み込むことによって、オープンソースのコードや監査のような現在の手段を越えている。
私たちの結びついたアプローチは、複雑な現実世界のシステムにおいて透明性を実現するための実践的な経路を提供します。
- 参考スコア(独自算出の注目度): 7.9699781371465965
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Confidential Computing is a security paradigm designed to protect data in-use by leveraging hardware-based Trusted Execution Environments (TEEs). While TEEs offer significant security benefits, the need for user trust remains a challenge, as attestation alone cannot guarantee the absence of vulnerabilities or backdoors. To address this, we propose a Confidential Computing Transparency framework with progressive levels of transparency. This framework goes beyond current measures like open-source code and audits by incorporating accountability for reviewers and robust technical safeguards, creating a comprehensive trust chain. Our tiered approach provides a practical pathway to achieving transparency in complex, real-world systems. Through a user study with 400 participants, we demonstrate that higher levels of transparency are associated with increased user comfort, particularly for sensitive data types.
- Abstract(参考訳): Confidential Computingは、ハードウェアベースのTrusted Execution Environments(TEEs)を活用することで、データ使用を保護するために設計されたセキュリティパラダイムである。
TEEは重大なセキュリティ上のメリットを提供するが、認証だけで脆弱性やバックドアの欠如を保証できないため、ユーザ信頼の必要性は依然として課題である。
この問題に対処するため,我々は,段階的な透明性を有する信頼度コンピューティング透明性フレームワークを提案する。
このフレームワークは、レビュアーへの説明責任と堅牢な技術的保護を取り入れ、包括的な信頼連鎖を作ることによって、オープンソースのコードや監査のような現在の手段を越えています。
私たちの結びついたアプローチは、複雑な現実世界のシステムにおいて透明性を実現するための実践的な経路を提供します。
400人の参加者によるユーザスタディを通じて、高レベルの透明性がユーザの快適性、特に機密データタイプに結びついていることが実証された。
関連論文リスト
- The Pitfalls of "Security by Obscurity" And What They Mean for Transparent AI [4.627627425427264]
透明性のメリットに関するセキュリティコミュニティの視点では,3つの重要なテーマを特定します。
次に、匿名化研究のサブフィールドを透明性がいかに形成したかについてのケーススタディの議論を行う。
論文 参考訳(メタデータ) (2025-01-30T17:04:35Z) - Balancing Confidentiality and Transparency for Blockchain-based Process-Aware Information Systems [46.404531555921906]
機密性と透明性の両立を目的とした,ブロックチェーンベースのPAISアーキテクチャを提案する。
スマートコントラクトは公開インタラクションを制定、強制、保存し、属性ベースの暗号化技術は機密情報へのアクセス許可を指定するために採用されている。
論文 参考訳(メタデータ) (2024-12-07T20:18:36Z) - Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
認証サイクル冗長性チェック(ACRIC)を提案する。
ACRICは、追加のハードウェアを必要とせずに後方互換性を保持し、プロトコルに依存しない。
ACRICは最小送信オーバーヘッド(1ms)で堅牢なセキュリティを提供する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - Blockchain-Enhanced Framework for Secure Third-Party Vendor Risk Management and Vigilant Security Controls [0.6990493129893112]
本稿では,サードパーティベンダのリスクを管理するための,包括的なセキュアなフレームワークを提案する。
ブロックチェーンテクノロジを統合して、ベンダの評価やインタラクションにおける透明性、トレーサビリティ、不変性を保証します。
論文 参考訳(メタデータ) (2024-11-20T16:42:14Z) - Trustworthy AI: Securing Sensitive Data in Large Language Models [0.0]
大規模言語モデル(LLM)は、堅牢なテキスト生成と理解を可能にすることで自然言語処理(NLP)を変革した。
本稿では, 機密情報の開示を動的に制御するために, 信頼機構をLCMに組み込むための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-26T19:02:33Z) - Physical Layer Deception with Non-Orthogonal Multiplexing [52.11755709248891]
本稿では,ワイヤタッピングの試みに積極的に対処する物理層騙し(PLD)の枠組みを提案する。
PLDはPLSと偽装技術を組み合わせることで、積極的に盗聴の試みに対処する。
本研究では,PLDフレームワークの有効性を詳細な分析で証明し,従来のPLS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-30T16:17:39Z) - Privacy-Preserving Deep Learning Using Deformable Operators for Secure Task Learning [14.187385349716518]
既存のプライバシー保護方法は、画像暗号化や知覚変換アプローチに依存している。
安全なタスク学習に変形可能な演算子の集合を用いる新しいプライバシ保存フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-08T19:46:20Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Blockchain-based Zero Trust on the Edge [5.323279718522213]
本稿では,ブロックチェーンに拡張されたゼロトラストアーキテクチャ(ZTA)に基づく新たなアプローチを提案し,セキュリティをさらに強化する。
ブロックチェーンコンポーネントは、ユーザの要求を格納するための不変データベースとして機能し、潜在的に悪意のあるユーザアクティビティを分析して識別することで、信頼性を検証するために使用される。
スマートシティにおけるその実現可能性と適用性を検証するために,テストベッド上で実施したフレームワーク,アプローチのプロセス,実験について論じる。
論文 参考訳(メタデータ) (2023-11-28T12:43:21Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - The Many Facets of Trust in AI: Formalizing the Relation Between Trust
and Fairness, Accountability, and Transparency [4.003809001962519]
公正性、説明責任、透明性を促進する努力は、AI(Trust in AI, TAI)の育成に不可欠であると考えられている。
信頼そのものへの説明の欠如は、信頼は一般的に理解され、複雑でなく、あるいは興味のないものであることを示唆している。
我々のTAI出版物の分析では、信頼(エージェント)、信頼(エージェント)、何(オブジェクト)、何(ベース)、何(客観的)、何(オブジェクト)、なぜ(インパクト)など、さまざまな方向性が明らかにされている。
論文 参考訳(メタデータ) (2022-08-01T08:26:57Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Applying Transparency in Artificial Intelligence based Personalization
Systems [5.671950073691286]
透明性の向上はパーソナライズベースのシステムにとって重要な目標である。
我々は、技術倫理とコンピュータ科学からの洞察を組み合わせて、機械生成のパーソナライゼーションのための透明性のベストプラクティスのリストを作成します。
これらのベストプラクティスに基づいて,アルゴリズムシステムの透明性を評価し,向上したいと考える設計者が使用するチェックリストを開発した。
論文 参考訳(メタデータ) (2020-04-02T11:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。