論文の概要: CipherMind: The Longest Codebook in the World
- arxiv url: http://arxiv.org/abs/2506.15117v1
- Date: Wed, 18 Jun 2025 03:34:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.543487
- Title: CipherMind: The Longest Codebook in the World
- Title(参考訳): CipherMind:世界最長のコードブック
- Authors: Ming Nie, Zhixiong Yang, Bingsheng Wei,
- Abstract要約: 提案するCipherMindは,大規模なモデル推論を伝達内容として決定論的微調整による中間結果を利用する。
大規模モデルのセマンティックパラメータは、不透明な基礎実装や弱い解釈可能性のような特性を示す。
この通信パラダイムはゲートウェイ内伝送のようなシナリオに適用でき、理論的にはどんな大きなモデルでも基礎として実装することができる。
- 参考スコア(独自算出の注目度): 1.8899548687499685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the widespread application of large language models has inspired us to consider using inference for communication encryption. We therefore propose CipherMind, which utilizes intermediate results from deterministic fine-tuning of large model inferences as transmission content. The semantic parameters of large models exhibit characteristics like opaque underlying implementations and weak interpretability, thus enabling their use as an encryption method for data transmission. This communication paradigm can be applied in scenarios like intra-gateway transmission, and theoretically, it can be implemented using any large model as its foundation.
- Abstract(参考訳): 近年,大規模言語モデルの普及により,通信暗号化における推論の活用が注目されている。
そこで我々はCipherMindを提案する。CipherMindは大きなモデル推論を伝達内容として決定論的微調整の中間結果を利用する。
大規模モデルのセマンティックパラメータは、不透明な基礎実装や弱い解釈可能性のような特性を示し、データ転送の暗号化方法として使用できる。
この通信パラダイムはゲートウェイ内伝送のようなシナリオに適用でき、理論的にはどんな大きなモデルでも基礎として実装することができる。
関連論文リスト
- Encrypted Large Model Inference: The Equivariant Encryption Paradigm [18.547945807599543]
Equivariant Encryption(EE)は,暗号化されたデータに対して,性能上のオーバーヘッドがゼロに近いセキュアな"盲目"推論を可能にするように設計された,新しいパラダイムである。
計算グラフ全体を暗号化する完全同型アプローチとは異なり、EEはニューラルネットワーク層内の重要な内部表現を選択的に難読化する。
EEは高い忠実性とスループットを維持しており、ロバストなデータの機密性と、現代的な大規模モデル推論の厳密な効率要件の間のギャップを効果的に埋めています。
論文 参考訳(メタデータ) (2025-02-03T03:05:20Z) - Secure Semantic Communication With Homomorphic Encryption [52.5344514499035]
本稿では,SemCom に準同型暗号を適用する可能性について検討する。
タスク指向のSemComスキームを提案する。
論文 参考訳(メタデータ) (2025-01-17T13:26:14Z) - Learning Robust Representations for Communications over Interference-limited Channels [0.6990493129893111]
本研究では、干渉制限環境下でのブロック伝送と検出のためのエンコーダとデコーダの設計のために、TwinNetとSiameseNetという2つの高効率な手法を紹介した。
論文 参考訳(メタデータ) (2024-10-13T09:09:21Z) - Faster Cascades via Speculative Decoding [66.16909847419198]
カスケードと投機的復号化は、言語モデルの推論効率を改善するためのアプローチである。
提案手法は,投機的実行による推論規則を実装した新しい投機的カスケード手法である。
我々の手法は、カスケードや投機的復号化ベースラインよりもコスト品質のトレードオフが優れていることを示す。
論文 参考訳(メタデータ) (2024-05-29T16:55:08Z) - Unified Generation, Reconstruction, and Representation: Generalized Diffusion with Adaptive Latent Encoding-Decoding [90.77521413857448]
深層生成モデルは,3つのコア機能 – 新たなインスタンスの生成,入力の再構築,コンパクト表現の学習 – に固定されている。
一般化逆変換拡散確率モデル(EDDPM)を導入する。
EDDPMはパラメタライズされた符号化復号を導入することで標準拡散におけるガウス雑音化を一般化する。
テキスト、タンパク質、画像の実験は、多様なデータやタスクを扱う柔軟性を示している。
論文 参考訳(メタデータ) (2024-02-29T10:08:57Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Semantic Image Synthesis via Diffusion Models [174.24523061460704]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に事実上のGANベースのアプローチに従っている。
意味画像合成のためのDDPMに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Deep Latent-Variable Models for Text Generation [7.119436003155924]
ディープニューラルネットワークベースのエンドツーエンドアーキテクチャが広く採用されている。
エンドツーエンドのアプローチは、以前は複雑な手作りのルールで設計されていたすべてのサブモジュールを、全体的なエンコード・デコードアーキテクチャに融合させる。
この論文は、テキスト生成のための標準エンコーダデコーダモデルよりも、潜伏変数の深いモデルがいかに改善できるかを示す。
論文 参考訳(メタデータ) (2022-03-03T23:06:39Z) - Leveraging Generative Models for Covert Messaging: Challenges and Tradeoffs for "Dead-Drop" Deployments [10.423657458233713]
自然言語テキストの生成モデルは、メッセージ転送ビットをモデルからサンプルのシーケンスにエンコードし、最終的にはもっともらしい自然言語のカバーテキストを生成する。
このようなパイプラインの自然な適用、すなわち、大規模でパブリックなインターネットプラットフォーム上での"デッドドロップ"の隠蔽メッセージングを考慮することで、これらの課題を具体化します。
このモデルベースのフォーマット変換暗号化パイプラインにシステムを実装し、その性能と(ヒューリスティックな)セキュリティを実証分析する。
論文 参考訳(メタデータ) (2021-10-13T20:05:26Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。