論文の概要: A Scientific Data Integrity system based on Blockchain
- arxiv url: http://arxiv.org/abs/2601.13425v1
- Date: Mon, 19 Jan 2026 22:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.079666
- Title: A Scientific Data Integrity system based on Blockchain
- Title(参考訳): ブロックチェーンに基づく科学データ統合システム
- Authors: Gian Sebastian Mier Bello, Alexander Martinez Mendez, Carlos J. Barrios H., Robinson Rivas, Luis A. Núñez,
- Abstract要約: このような分散リポジトリ上でデータ完全性を検証するために,研究グループを支援する新しい手法を提案する。
提案では,1)データ管理へのセキュアなアクセス,2)データの整合性の検証,3)同じ堅牢な整合性ポリシを備えたデータセットに新たなレコードを追加する簡単な方法,などが保証されている。
- 参考スコア(独自算出の注目度): 36.94429692322632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In most High Performance Computing (HPC) projects nowadays, there is a lot of data obtained from different sources, depending on the project's objectives. Some of that data is very huge in terms of size, so copying such data sometimes is an unrealistic goal. On the other hand, science requires data used for different purposes to remain unaltered, so different groups of researchers can reproduce results, discuss theories, and validate each other. In this paper, we present a novel approach to help research groups to validate data integrity on such distributed repositories using Blockchain. Originally developed for cryptographic currencies, Blockchain has demonstrated a versatile range of uses. Our proposal ensures 1) secure access to data management, 2) easy validation of data integrity, and 3) an easy way to add new records to the dataset with the same robust integrity policy. A prototype was developed and tested using a subset of a public dataset from a real scientific collaboration, the Latin American Giant Observatory (LAGO) Project.
- Abstract(参考訳): 現在、ほとんどのハイパフォーマンスコンピューティング(HPC)プロジェクトでは、プロジェクトの目的に応じて異なるソースから得られるデータが多数存在する。
そのデータのいくつかはサイズでは非常に大きいので、そのようなデータのコピーは非現実的な目標である場合もあります。
一方、科学は変化しないために異なる目的のために使用されるデータを必要とするため、研究者の異なるグループが結果を再現し、理論について議論し、互いに検証することができる。
本稿では,Blockchainを用いた分散リポジトリ上でのデータの整合性検証を支援する新しい手法を提案する。
元々暗号通貨向けに開発されたBlockchainは、多様な用途を実証してきた。
我々の提案は保証する
1)データ管理への安全なアクセス
2【データの完全性の簡易検証】
3) 同じ堅牢な整合性ポリシーでデータセットに新しいレコードを追加する簡単な方法です。
ラテンアメリカ・ジャイアント天文台(LAGO)プロジェクト (Latin American Giant Observatory) は、ラテンアメリカ・ジャイアント・オブザーバトリー(LAGO)プロジェクト(英語版)プロジェクト(英語版)の公開データセットのサブセットを用いて、プロトタイプを開発し、テストした。
関連論文リスト
- Decentralized COVID-19 Health System Leveraging Blockchain [0.8225825738565354]
本稿は、アプリケーションシナリオとして最も一般的な新型コロナウイルスを取り上げ、ブロックチェーンに基づいた新型コロナウイルスの健康システムを設計する。
ブロックチェーンのパブリックで透明な性質が、一部のヘルスデータのプライバシー要件に違反していることを考慮すれば、システム設計段階では、データはパブリックデータとプライベートデータに分割される。
システム実装部では、Hyperledger Fabricアーキテクチャに基づいて、データのアップロード、最新のデータの検索、履歴データなど、システム設計のいくつかの機能を実現する。
論文 参考訳(メタデータ) (2025-06-03T09:19:47Z) - XChainDataGen: A Cross-Chain Dataset Generation Framework [6.139772633069047]
本稿では,ブロックチェーンからクロスチェーンデータを抽出し,クロスチェーントランザクション(cctx)のデータセットを生成するツールであるXChainDataGenを提案する。
XChainDataGenを使用して、2024年の最後の7ヶ月で11のブロックチェーン上にデプロイされた5つのクロスチェーンプロトコルから、35GB以上のデータを抽出しました。
クロスチェーントークン転送で28億米ドル以上を移動した11,285,753個のcctxを同定した。
論文 参考訳(メタデータ) (2025-03-17T18:39:43Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Trustless Privacy-Preserving Data Aggregation on Ethereum with Hypercube Network Topology [0.0]
ブロックチェーンの要約のためのスケーラブルなプライバシ保護データアグリゲーションプロトコルを提案している。
プロトコルは、契約の展開、ユーザ登録、プライベートな提出、証明検証の4段階で構成されている。
論文 参考訳(メタデータ) (2023-08-29T12:51:26Z) - Synthcity: facilitating innovative use cases of synthetic data in
different data modalities [86.52703093858631]
Synthcityは、MLフェアネス、プライバシ、拡張における合成データの革新的なユースケースのための、オープンソースのソフトウェアパッケージである。
Synthcityは、実践者に対して、合成データにおける最先端の研究とツールへの単一のアクセスポイントを提供する。
論文 参考訳(メタデータ) (2023-01-18T14:49:54Z) - Quantinar: a blockchain p2p ecosystem for honest scientific research [0.0]
ブロックチェーンネットワークであるQuantinar(quantinar.com)に基づくピアツーピア(P2P)エコシステム
ブロックチェーンネットワークであるQuantinar(quantinar.com)に基づくピアツーピア(P2P)エコシステムの利用を提案する。
論文 参考訳(メタデータ) (2022-11-13T11:28:04Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z) - Analysis of Models for Decentralized and Collaborative AI on Blockchain [0.0]
本稿では,自己評価のインセンティブメカニズムを用いる際のベストプラクティスを提案するために,いくつかのモデルと構成を用いて評価する。
モデルがパブリックブロックチェーン上でスマートコントラクトでホストされている場合、データセット毎にいくつかの要因を比較します。
論文 参考訳(メタデータ) (2020-09-14T21:38:55Z) - Byzantine-Robust Learning on Heterogeneous Datasets via Bucketing [55.012801269326594]
ビザンチンの堅牢な分散学習では、中央サーバは、複数のワーカーに分散したデータよりも、機械学習モデルを訓練したい。
これらの労働者のごく一部は、所定のアルゴリズムから逸脱し、任意のメッセージを送ることができる。
本稿では,既存のロバストなアルゴリズムを無視可能な計算コストでヘテロジニアスなデータセットに適応させる,シンプルなバケット方式を提案する。
論文 参考訳(メタデータ) (2020-06-16T17:58:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。