論文の概要: Honest Computing: Achieving demonstrable data lineage and provenance for driving data and process-sensitive policies
- arxiv url: http://arxiv.org/abs/2407.14390v1
- Date: Fri, 19 Jul 2024 15:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 17:05:24.152405
- Title: Honest Computing: Achieving demonstrable data lineage and provenance for driving data and process-sensitive policies
- Title(参考訳): 正直なコンピューティング: データとプロセスに敏感なポリシーを駆動するための実証可能なデータ系統と証明を実現する
- Authors: Florian Guitton, Axel Oehmichen, Étienne Bossé, Yike Guo,
- Abstract要約: データは開示の未完了、リーク、損失、操作、製造などの影響を受けやすい。
我々は、透明性、完全性、倫理的行動を強調する実践とアプローチとして、Honest Computingの概念を紹介します。
この基本層アプローチは、適切なデータ保持と処理のための新しい標準を定義するのに役立つ。
- 参考スコア(独自算出の注目度): 8.67097489372345
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Data is the foundation of any scientific, industrial or commercial process. Its journey typically flows from collection to transport, storage, management and processing. While best practices and regulations guide data management and protection, recent events have underscored its vulnerability. Academic research and commercial data handling have been marred by scandals, revealing the brittleness of data management. Data, despite its importance, is susceptible to undue disclosures, leaks, losses, manipulation, or fabrication. These incidents often occur without visibility or accountability, necessitating a systematic structure for safe, honest, and auditable data management. In this paper, we introduce the concept of Honest Computing as the practice and approach that emphasizes transparency, integrity, and ethical behaviour within the realm of computing and technology. It ensures that computer systems and software operate honestly and reliably without hidden agendas, biases, or unethical practices. It enables privacy and confidentiality of data and code by design and by default. We also introduce a reference framework to achieve demonstrable data lineage and provenance, contrasting it with Secure Computing, a related but differently-orientated form of computing. At its core, Honest Computing leverages Trustless Computing, Confidential Computing, Distributed Computing, Cryptography and AAA security concepts. Honest Computing opens new ways of creating technology-based processes and workflows which permit the migration of regulatory frameworks for data protection from principle-based approaches to rule-based ones. Addressing use cases in many fields, from AI model protection and ethical layering to digital currency formation for finance and banking, trading, and healthcare, this foundational layer approach can help define new standards for appropriate data custody and processing.
- Abstract(参考訳): データは科学的、工業的、商業的なプロセスの基礎である。
その旅は通常、収集から輸送、保管、管理、処理へと流れます。
ベストプラクティスと規制がデータ管理と保護を導く一方で、最近の出来事は脆弱性を過小評価している。
学術研究と商用データハンドリングはスキャンダルに悩まされ、データ管理の脆さが明らかになった。
データは、その重要性にもかかわらず、未公開の開示、漏洩、損失、操作、製造に影響を受けやすい。
これらのインシデントは可視性や説明責任なしに発生し、安全で誠実で監査可能なデータ管理のために体系的な構造を必要とする。
本稿では,コンピューティングと技術の領域における透明性,完全性,倫理的行動を強調する実践とアプローチとして,Honest Computingの概念を紹介する。
コンピュータシステムとソフトウェアは、隠れたアジェンダ、バイアス、あるいは非倫理的なプラクティスなしで、誠実かつ確実に動作することを保証します。
設計とデフォルトでは、データとコードのプライバシと機密性を可能にする。
また、実証可能なデータ系統と証明を達成するための参照フレームワークを導入し、関連するが異なる指向のコンピューティング形式であるSecure Computingと対比した。
Honest Computingの中核は、Trustless Computing、Confidential Computing、Distributed Computing、Cryptography、AAAセキュリティの概念を利用している。
Honest Computingは、原則ベースのアプローチからルールベースのアプローチへのデータ保護のための規制フレームワークの移行を可能にする、テクノロジベースのプロセスとワークフローを作成する新しい方法を開く。
AIモデル保護や倫理的な階層化から、金融や銀行、トレーディング、ヘルスケアのためのデジタル通貨形成に至るまで、多くの分野におけるユースケースに対応するため、この基盤となるレイヤアプローチは、適切なデータ保持と処理のための新しい標準を定義するのに役立つ。
関連論文リスト
- Secure Computation and Trustless Data Intermediaries in Data Spaces [0.44998333629984877]
本稿では,データ空間におけるセキュアな計算のための高度な暗号技術の統合について検討する。
We exploit the introduced secure method、すなわち Secure Multi-Party Computation (MPC) と Fully Homomorphic Encryption (FHE) を利用する。
我々は、航空交通管理、製造、二次データ利用など、実世界のユースケースを通じてソリューションを提示する。
論文 参考訳(メタデータ) (2024-10-21T19:10:53Z) - Human-Data Interaction Framework: A Comprehensive Model for a Future Driven by Data and Humans [0.0]
HDI(Human-Data Interaction)フレームワークは、現代のデジタル世界でのデータガバナンスと利用に関連する課題と倫理的問題に取り組むための重要なアプローチとなっている。
本稿では、組織がHDI原則をシームレスに統合するために必要な基本的な手順を概説する。
論文 参考訳(メタデータ) (2024-07-30T17:57:09Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - AI Assurance using Causal Inference: Application to Public Policy [0.0]
ほとんどのAIアプローチは、"ブラックボックス"としてのみ表現することができ、透明性の欠如に悩まされる。
効果的で堅牢なAIシステムを開発するだけでなく、内部プロセスが説明可能で公平であることを確認することも重要です。
論文 参考訳(メタデータ) (2021-12-01T16:03:06Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Towards Compliant Data Management Systems for Healthcare ML [6.057289837472806]
我々は、ソースからストレージまで、ヘルスケアにおける機械学習プロジェクト内のデータフローがどのようにトレーニングアルゴリズムなどに使われるのかをレビューする。
私たちの目標は、プロジェクトのライフサイクル全体にわたって、マシンやユーザ間で機密データを検知し、追跡するツールを設計することにあります。
この領域の難しさを示すソリューションのプロトタイプを構築します。
論文 参考訳(メタデータ) (2020-11-15T15:27:51Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。