論文の概要: Hiding Information in Big Data based on Deep Learning
- arxiv url: http://arxiv.org/abs/1912.13156v2
- Date: Thu, 23 Jan 2020 10:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 21:26:41.311718
- Title: Hiding Information in Big Data based on Deep Learning
- Title(参考訳): ディープラーニングに基づくビッグデータにおける情報隠蔽
- Authors: Dingju Zhu
- Abstract要約: 本稿では,ディープラーニングに基づくビッグデータに隠蔽する新しい手法を提案する。
提案手法では,既存のデータをキャリアとして使用し,ディープラーニングモデルを用いてビッグデータ内の秘密メッセージを隠蔽し抽出する。
- 参考スコア(独自算出の注目度): 0.34265828682659694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current approach of information hiding based on deep learning model can
not directly use the original data as carriers, which means the approach can
not make use of the existing data in big data to hiding information. We
proposed a novel method of information hiding in big data based on deep
learning. Our method uses the existing data in big data as carriers and uses
deep learning models to hide and extract secret messages in big data. The data
amount of big data is unlimited and thus the data amount of secret messages
hided in big data can also be unlimited. Before opponents want to extract
secret messages from carriers, they need to find the carriers, however finding
out the carriers from big data is just like finding out a box from the sea.
Deep learning models are well known as deep black boxes in which the process
from the input to the output is very complex, and thus the deep learning model
for information hiding is almost impossible for opponents to reconstruct. The
results also show that our method can hide secret messages safely,
conveniently, quickly and with no limitation on the data amount.
- Abstract(参考訳): ディープラーニングモデルに基づく情報隠蔽の現在のアプローチでは,元のデータをキャリアとして直接使用することはできない。
本研究では,ディープラーニングに基づくビッグデータにおける新たな情報隠蔽手法を提案する。
提案手法では,既存のデータをキャリアとして使用し,ディープラーニングモデルを用いてビッグデータ内の秘密メッセージを隠蔽し抽出する。
ビッグデータのデータ量は無制限であるため、ビッグデータに隠された秘密メッセージのデータ量も無制限である。
相手がキャリアから秘密のメッセージを抽出する前には、キャリアを見つける必要があるが、ビッグデータからキャリアを見つけることは、海から箱を見つけるのと同じだ。
深層学習モデルは、入力から出力までのプロセスが非常に複雑である深層ブラックボックスとしてよく知られており、情報隠蔽のための深層学習モデルは、相手が再構成するほぼ不可能である。
また,本手法はシークレットメッセージを安全に,便利に,迅速に,かつデータ量に制限なく隠蔽できることを示した。
関連論文リスト
- Formality is Favored: Unraveling the Learning Preferences of Large Language Models on Data with Conflicting Knowledge [55.65162959527848]
大規模言語モデルは、多くの知識集約的なタスクにおいて優れたパフォーマンスを示している。
しかし、事前学習データには誤解を招く傾向があり、矛盾する情報も含まれている。
本研究では,LLMの学習嗜好を,矛盾する知識を持つデータに対して体系的に分析する。
論文 参考訳(メタデータ) (2024-10-07T06:49:41Z) - Query of CC: Unearthing Large Scale Domain-Specific Knowledge from
Public Corpora [104.16648246740543]
大規模言語モデルに基づく効率的なデータ収集手法を提案する。
この方法は、大きな言語モデルを通してシード情報をブートストラップし、公開コーパスから関連データを検索する。
特定のドメインに関する知識関連のデータを収集するだけでなく、潜在的な推論手順でデータを抽出する。
論文 参考訳(メタデータ) (2024-01-26T03:38:23Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z) - Bag of Tricks for Training Data Extraction from Language Models [98.40637430115204]
公開データセットを用いてトレーニングデータ抽出を改善するための手法とベンチマーク手法について検討する。
実験結果から,これまで見過ごされていたいくつかのトリックが,トレーニングデータ抽出の成功に不可欠であることが示唆された。
論文 参考訳(メタデータ) (2023-02-09T06:46:42Z) - You Are What You Write: Preserving Privacy in the Era of Large Language
Models [2.3431670397288005]
本稿では,様々な人気モデルを用いて,事前学習された表現に符号化された個人情報の範囲について,実証的研究を行う。
モデルの複雑さ,事前学習に使用するデータ量,およびデータ漏洩との間には,正の相関関係を示す。
論文 参考訳(メタデータ) (2022-04-20T11:12:53Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Toward Compact Data from Big Data [0.0]
このコンパクトデータセットは、ビッグデータのないビッグデータシステムの有効かつパーソナライズされた利用のために、きめ細かいレベルでの最大知識パターンを含む。
論文の様々なデータ駆動研究領域において、様々なコンパクトデータ技術が実証されている。
論文 参考訳(メタデータ) (2020-12-26T04:45:40Z) - Security and Privacy Preserving Deep Learning [2.322461721824713]
ディープラーニングに必要な膨大なデータ収集は、明らかにプライバシーの問題を提示している。
写真や音声録音などの、個人的かつ高感度なデータは、収集する企業によって無期限に保持される。
深層ニューラルネットワークは、トレーニングデータに関する情報を記憶するさまざまな推論攻撃の影響を受けやすい。
論文 参考訳(メタデータ) (2020-06-23T01:53:46Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Data Augmentation for Deep Candlestick Learner [2.104922050913737]
そこで本研究では,ロウソクスティックデータを改良したローカルサーチアタックサンプリング手法を提案する。
提案手法は,人間の識別が難しい高品質なデータを生成することができることを示す。
論文 参考訳(メタデータ) (2020-05-14T06:02:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。