論文の概要: Cloud Storage Integrity at Scale: A Case for Dynamic Hash Trees
- arxiv url: http://arxiv.org/abs/2405.03830v2
- Date: Tue, 17 Dec 2024 19:44:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:22:43.405121
- Title: Cloud Storage Integrity at Scale: A Case for Dynamic Hash Trees
- Title(参考訳): 大規模クラウドストレージの統合性 - 動的ハッシュツリーの例
- Authors: Quinn Burke, Ryan Sheatsley, Rachel King, Michael Swift, Patrick McDaniel,
- Abstract要約: Merkle hash treeは、ストレージシステムの完全性を保護する最先端の方法である。
本稿では,最適なハッシュツリーの定義と,ハッシュツリー設計を評価するための原則的方法論を提案する。
最先端の設計はスケーラビリティに欠けており、安全でないベースライン上で最大40.1倍のスローダウンが発生する。
次に、最適なハッシュツリーの特性を利用して、動的ハッシュツリー(DHT)を設計する。
- 参考スコア(独自算出の注目度): 2.412552331376206
- License:
- Abstract: Merkle hash trees are the state-of-the-art method to protect the integrity of storage systems. However, using a hash tree can severely degrade performance, and prior works optimizing them have yet to yield a concrete understanding of the scalability of certain designs in the context of large-scale cloud storage systems. In this paper, we take a first-principles approach to analyzing hash tree performance for storage by introducing a definition of an optimal hash tree and a principled methodology for evaluating hash tree designs. We show that state-of-the-art designs are not scalable; they incur up to 40.1X slowdowns over an insecure baseline and deliver <50% of optimal performance across various experiments. We then exploit the characteristics of optimal hash trees to design Dynamic Hash Trees (DHTs), hash trees that can adapt to workload patterns on-the-fly, delivering >95% of optimal read and write performance and up to 4.2X speedups over the state-of-the art. Our novel methodology and DHT design provides a new foundation in the search for integrity mechanisms that can operate efficiently at scale.
- Abstract(参考訳): Merkle hash treeは、ストレージシステムの完全性を保護する最先端の方法である。
しかし、ハッシュツリーの使用はパフォーマンスを著しく低下させる可能性があるため、事前の最適化作業では、大規模なクラウドストレージシステムのコンテキストにおいて、特定の設計のスケーラビリティに関する具体的な理解が得られていない。
本稿では,最適なハッシュツリーの定義を導入し,ハッシュツリーの保存性能を第一原理として解析する手法と,ハッシュツリー設計の原理的手法を提案する。
安全でないベースライン上で最大40.1倍のスローダウンを発生し、様々な実験で最適性能の50%を達成している。
次に、動的ハッシュツリー(DHT)の設計に最適なハッシュツリーの特性を活用し、作業負荷パターンに対応可能なハッシュツリーをオンザフライで設計し、95%以上の読み書き性能と4.2倍のスピードアップを実現する。
我々の新しい方法論とDHT設計は、大規模に効率的に動作可能な整合性メカニズムの探索に新たな基盤を提供する。
関連論文リスト
- NeuroHash: A Hyperdimensional Neuro-Symbolic Framework for Spatially-Aware Image Hashing and Retrieval [5.0923114224599555]
我々は,高次元コンピューティング(HDC)を活用し,高度にカスタマイズ可能な空間認識画像検索を可能にするニューロハッシュという,新しいニューロシンボリック・フレームワークを紹介する。
NeuroHashは、事前トレーニングされたディープニューラルネットワークモデルとHDCベースのシンボリックモデルを組み合わせることで、条件付き画像検索をサポートするためにハッシュ値の柔軟な操作を可能にする。
我々はNuroHashを2つのベンチマークデータセットで評価し、最先端ハッシュ法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-17T03:01:47Z) - A Lower Bound of Hash Codes' Performance [122.88252443695492]
本稿では,ハッシュ符号間のクラス間の差分性とクラス内圧縮性が,ハッシュ符号の性能の低い境界を決定することを証明する。
次に、ハッシュコードの後部を推定し、それを制御することにより、上記の目的を完全に活用する代理モデルを提案し、低バイアス最適化を実現する。
一連のハッシュモデルをテストすることで、平均精度が最大で26.5%、精度が最大で20.5%向上した。
論文 参考訳(メタデータ) (2022-10-12T03:30:56Z) - DVHN: A Deep Hashing Framework for Large-scale Vehicle Re-identification [5.407157027628579]
本稿では、メモリ使用量を大幅に削減し、検索効率を向上させるディープハッシュベースの車両再識別フレームワークDVHNを提案する。
DVHNは、特徴学習ネットワークとハッシュコード生成モジュールとを協調最適化することにより、各画像の離散コンパクトなバイナリハッシュコードを直接学習する。
2048ドルビットの textbfDVHN は textbfmAP と textbfRank@1 for textbfVehicleID (800) データセットで 13.94% と 10.21% の精度向上を達成できる。
論文 参考訳(メタデータ) (2021-12-09T14:11:27Z) - Learning to Hash Robustly, with Guarantees [79.68057056103014]
本稿では,理論的アルゴリズムと本質的に一致する最悪ケース保証を持つハミング空間のためのNSアルゴリズムを設計する。
理論的にも実用的にも、与えられたデータセットに対してアルゴリズムが最適化できる能力を評価する。
我々のアルゴリズムは、MNISTおよびImageNetデータセットに対する最悪のパフォーマンスのクエリを、1.8倍と2.1倍の精度でリコールする。
論文 参考訳(メタデータ) (2021-08-11T20:21:30Z) - PACSET (Packed Serialized Trees): Reducing Inference Latency for Tree
Ensemble Deployment [4.314299343332365]
モデルがまだメモリにロードされていない場合の推論遅延を最適化する,ツリーアンサンブルのシリアライズとデシリアライズを行う手法を提案する。
組込みシリアライズドツリー(PACSET)は、外部メモリアルゴリズムの原理を用いて、ツリーアンサンブルのレイアウトにおける参照ローカリティを符号化する。
その結果、各I/Oは有用なデータの割合が高くなり、対話型ワークロードの分類遅延が2~6倍削減される。
論文 参考訳(メタデータ) (2020-11-10T20:32:11Z) - ExchNet: A Unified Hashing Network for Large-Scale Fine-Grained Image
Retrieval [43.41089241581596]
そこで我々は, きめ細かい画像のためのコンパクトなバイナリコードを生成するために, 新たなきめ細かなハッシュトピックについて検討した。
我々は、ExchNetと呼ばれる、エンドツーエンドのトレーニング可能な統合ネットワークを提案する。
提案手法は,5つのきめ細かいデータセットに対して,最先端の汎用ハッシュ法より一貫して優れている。
論文 参考訳(メタデータ) (2020-08-04T07:01:32Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Generative Semantic Hashing Enhanced via Boltzmann Machines [61.688380278649056]
既存の生成ハッシュ法は、主に後部分布の分解形式を仮定する。
本稿では,ボルツマンマシンの分布を検索後部として利用することを提案する。
ハッシュコード内の異なるビット間の相関関係を効果的にモデル化することにより、我々のモデルは大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2020-06-16T01:23:39Z) - Reinforcing Short-Length Hashing [61.75883795807109]
既存の手法は、非常に短いハッシュコードを用いた検索性能が劣っている。
本研究では, 短寿命ハッシュ(RSLH)を改良する新しい手法を提案する。
本稿では,ハッシュ表現とセマンティックラベルの相互再構成を行い,セマンティック情報を保存する。
3つの大規模画像ベンチマークの実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-24T02:23:52Z) - ENTMOOT: A Framework for Optimization over Ensemble Tree Models [57.98561336670884]
ENTMOOTは、ツリーモデルをより大きな最適化問題に統合するためのフレームワークである。
ENTMOOTは、ツリーモデルの意思決定とブラックボックス最適化への単純な統合を可能にしていることを示す。
論文 参考訳(メタデータ) (2020-03-10T14:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。