論文の概要: Sync+Sync: A Covert Channel Built on fsync with Storage
- arxiv url: http://arxiv.org/abs/2309.07657v2
- Date: Wed, 19 Jun 2024 15:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 06:47:03.133938
- Title: Sync+Sync: A Covert Channel Built on fsync with Storage
- Title(参考訳): Sync+Sync: ストレージ付きfsync上に構築されたCovert Channel
- Authors: Qisheng Jiang, Chundong Wang,
- Abstract要約: 永続ストレージ用にSync+Syncという隠蔽チャネルを構築します。
Sync+Syncは、通常のソリッドステートドライブで約0.40%のエラーレートで、毎秒20,000ビットの伝送帯域を提供する。
Sync+Syncでサイドチャネルアタックを起動し、被害者データベースの操作を正確に検出する。
- 参考スコア(独自算出の注目度): 2.800768893804362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scientists have built a variety of covert channels for secretive information transmission with CPU cache and main memory. In this paper, we turn to a lower level in the memory hierarchy, i.e., persistent storage. Most programs store intermediate or eventual results in the form of files and some of them call fsync to synchronously persist a file with storage device for orderly persistence. Our quantitative study shows that one program would undergo significantly longer response time for fsync call if the other program is concurrently calling fsync, although they do not share any data. We further find that, concurrent fsync calls contend at multiple levels of storage stack due to sharing software structures (e.g., Ext4's journal) and hardware resources (e.g., disk's I/O dispatch queue). We accordingly build a covert channel named Sync+Sync. Sync+Sync delivers a transmission bandwidth of 20,000 bits per second at an error rate of about 0.40% with an ordinary solid-state drive. Sync+Sync can be conducted in cross-disk partition, cross-file system, cross-container, cross-virtual machine, and even cross-disk drive fashions, without sharing data between programs. Next, we launch side-channel attacks with Sync+Sync and manage to precisely detect operations of a victim database (e.g., insert/update and B-Tree node split). We also leverage Sync+Sync to distinguish applications and websites with high accuracy by detecting and analyzing their fsync frequencies and flushed data volumes. These attacks are useful to support further fine-grained information leakage.
- Abstract(参考訳): 科学者はCPUキャッシュとメインメモリを備えた秘密情報伝送のための様々な秘密チャンネルを構築した。
本稿では,メモリ階層の下位レベル,すなわち永続ストレージに目を向ける。
ほとんどのプログラムはファイルの形式で中間結果または最終的な結果を格納し、一部のプログラムはfsyncを呼び出して、整然とした永続化のためにストレージデバイスと同期的にファイルを永続化する。
我々の定量的研究は、他のプログラムがfsyncを同時に呼び出している場合、fsync呼び出しのレスポンス時間が大幅に長いことを示しています。
さらに、ソフトウェア構造(Ext4のジャーナルなど)とハードウェアリソース(ディスクのI/Oディスパッチキューなど)の共有によって、並列fsyncコールが複数のストレージスタックで競合していることも分かりました。
そこで私たちはSync+Syncという秘密チャンネルを構築しました。
Sync+Syncは、通常のソリッドステートドライブで約0.40%のエラーレートで、毎秒20,000ビットの伝送帯域を提供する。
Sync+Syncは、プログラム間でデータを共有することなく、クロスディスクパーティション、クロスファイルシステム、クロスコンテナ、クロス仮想マシン、さらにはクロスディスクドライブのスタイルで実行できる。
次に、Sync+Syncでサイドチャネルアタックを起動し、被害者データベース(例えば、挿入/更新、B-Treeノード分割)の操作を正確に検出します。
また、Sync+Syncを利用して、アプリケーションやWebサイトを高精度に識別する。
これらの攻撃は、よりきめ細かい情報漏洩をサポートするのに役立つ。
関連論文リスト
- AsyncDiff: Parallelizing Diffusion Models by Asynchronous Denoising [49.785626309848276]
AsyncDiffは、複数のデバイスにまたがるモデル並列化を可能にする、普遍的でプラグアンドプレイのアクセラレーションスキームである。
安定拡散 v2.1 では、AsyncDiff は2.7倍の速度アップと4.0倍のスピードアップを実現し、CLIPスコアの 0.38 をわずかに削減した。
我々の実験は、AsyncDiffがビデオ拡散モデルに容易に適用でき、性能を向上できることを示した。
論文 参考訳(メタデータ) (2024-06-11T03:09:37Z) - Synchformer: Efficient Synchronization from Sparse Cues [100.89656994681934]
コントリビューションには、新しい音声-視覚同期モデル、同期モデルからの抽出を分離するトレーニングが含まれる。
このアプローチは、濃密な設定とスパース設定の両方において最先端の性能を実現する。
また,100万スケールの 'in-the-wild' データセットに同期モデルのトレーニングを拡張し,解釈可能性に対するエビデンス属性技術を調査し,同期モデルの新たな機能であるオーディオ-視覚同期性について検討する。
論文 参考訳(メタデータ) (2024-01-29T18:59:55Z) - SYNC+SYNC: Software Cache Write Covert Channels Exploiting Memory-disk Synchronization [6.6639205139634115]
SynC+SYNCは、メモリディスク同期プリミティブを利用する攻撃のグループである。
本稿では,SynC+SYNCの原理を2つの書き込み被覆チャネルプロトコルの実装を通じて述べる。
その結果、平均レートは2.036 Kb/s(ピークレートは14.762 Kb/s)、エラーレートは0%であることがわかった。
論文 参考訳(メタデータ) (2023-12-08T15:11:26Z) - GestSync: Determining who is speaking without a talking head [67.75387744442727]
本稿では,ジェスチャ・シンク (Gesture-Sync) を導入する。
Lip-Syncと比較して、Gesture-Syncは、声と体の動きの間にはるかに緩い関係があるため、はるかに難しい。
このモデルは自己教師付き学習だけで訓練でき、LSS3データセット上での性能を評価することができる。
論文 参考訳(メタデータ) (2023-10-08T22:48:30Z) - Sparse in Space and Time: Audio-visual Synchronisation with Trainable
Selectors [103.21152156339484]
本研究の目的は,一般映像の「野生」音声・視覚同期である。
我々は4つのコントリビューションを行う: (i) スパース同期信号に必要な長時間の時間的シーケンスを処理するために、'セレクタ'を利用するマルチモーダルトランスモデルを設計する。
音声やビデオに使用される圧縮コーデックから生じるアーティファクトを識別し、トレーニングにおいてオーディオ視覚モデルを用いて、同期タスクを人工的に解くことができる。
論文 参考訳(メタデータ) (2022-10-13T14:25:37Z) - End to End Lip Synchronization with a Temporal AutoEncoder [95.94432031144716]
ビデオ中の唇の動きをオーディオストリームと同期させる問題について検討する。
両領域再帰型ニューラルネットワークを用いて最適アライメントを求める。
アプリケーションとして、既存のビデオストリームとテキストから音声までの音声を強力にアライメントする能力を実証する。
論文 参考訳(メタデータ) (2022-03-30T12:00:18Z) - Audio-Visual Synchronisation in the wild [149.84890978170174]
我々は,VGG-Sound Syncという,高い音声・視覚相関を持つテストセットを同定し,キュレートする。
任意の長さの音響信号と視覚信号のモデル化に特化して設計された,トランスフォーマーに基づく多数のアーキテクチャ変種を比較した。
我々は,新しいVGG-Sound Syncビデオデータセットにおいて,160以上の多様なクラスと一般的な音声-視覚同期のための最初のベンチマークを設定した。
論文 参考訳(メタデータ) (2021-12-08T17:50:26Z) - OpenSync: An opensource platform for synchronizing multiple measures in
neuroscience experiments [0.0]
本稿では,神経科学実験における複数の指標の同期に使用できる OpenSync というオープンソースのプラットフォームを紹介する。
このプラットフォームは、生理的措置(脳波(EEG)、ガルバニック皮膚反応(GSR)、視線追跡、体の動きなど)、ユーザ入力応答(マウス、キーボード、ジョイスティックなど)、タスク関連情報(刺激マーカー)を自動的に統合し、同期し、記録するのに役立つ。
実験の結果,OpenSyncプラットフォームはマイクロ秒の解像度で複数の測度を同期させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-29T23:09:55Z) - ShadowSync: Performing Synchronization in the Background for Highly
Scalable Distributed Training [10.73956838502053]
現代のリコメンデーションシステムトレーニングに適した分散フレームワークであるShadowsyncを紹介します。
トレーニングプロセスの一部として同期が行われる以前の作業とは対照的に、Shadowsyncは同期をトレーニングから分離し、バックグラウンドで実行する。
論文 参考訳(メタデータ) (2020-03-07T00:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。