論文の概要: Keys in the Weights: Transformer Authentication Using Model-Bound Latent Representations
- arxiv url: http://arxiv.org/abs/2511.00973v1
- Date: Sun, 02 Nov 2025 15:29:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.011678
- Title: Keys in the Weights: Transformer Authentication Using Model-Bound Latent Representations
- Title(参考訳): ウェイトにおけるキー:モデル境界潜在表現を用いたトランスフォーマー認証
- Authors: Ayşe S. Okatan, Mustafa İlhan Akbaş, Laxima Niure Kandel, Berker Peköz,
- Abstract要約: ZSDN(Zero-Shot Decoder Non-Transferability)として形式化されたトランスフォーマーオートエンコーダにおけるデコーダ結合特性であるモデル境界遅延交換(MoBLE)を導入する。
同一データで訓練されるが種によって異なるアイソ構造モデルを用いたアイデンティティタスクでは、自己復号法は0.91以上の正確な一致と0.98のトークンの精度を達成する。
MoBLEは、航空やサイバー物理システムを含む安全クリティカルな領域にAIを配置するための、軽量でアクセラレータフレンドリなアプローチを提供する。
- 参考スコア(独自算出の注目度): 0.3805935148497361
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce Model-Bound Latent Exchange (MoBLE), a decoder-binding property in Transformer autoencoders formalized as Zero-Shot Decoder Non-Transferability (ZSDN). In identity tasks using iso-architectural models trained on identical data but differing in seeds, self-decoding achieves more than 0.91 exact match and 0.98 token accuracy, while zero-shot cross-decoding collapses to chance without exact matches. This separation arises without injected secrets or adversarial training, and is corroborated by weight-space distances and attention-divergence diagnostics. We interpret ZSDN as model binding, a latent-based authentication and access-control mechanism, even when the architecture and training recipe are public: encoder's hidden state representation deterministically reveals the plaintext, yet only the correctly keyed decoder reproduces it in zero-shot. We formally define ZSDN, a decoder-binding advantage metric, and outline deployment considerations for secure artificial intelligence (AI) pipelines. Finally, we discuss learnability risks (e.g., adapter alignment) and outline mitigations. MoBLE offers a lightweight, accelerator-friendly approach to secure AI deployment in safety-critical domains, including aviation and cyber-physical systems.
- Abstract(参考訳): 我々は、ZSDN(Zero-Shot Decoder Non-Transferability)として形式化されたトランスフォーマーオートエンコーダにおけるデコーダ結合特性であるモデル境界遅延交換(MoBLE)を導入する。
同一データで訓練されるが種によって異なるアイソ構造モデルを用いたアイデンティティタスクでは、自己復号法は0.91以上の正確な一致と0.98のトークンの精度を達成する。
この分離は、注入された秘密や敵の訓練なしに発生し、重量空間距離と注意分割診断によって裏付けられる。
アーキテクチャとトレーニングのレシピが公開されている場合でも,ZSDNをモデルバインディングと解釈する。エンコーダの隠された状態表現はプレーンテキストを決定論的に明らかにするが,正確なキー付きデコーダのみがゼロショットでそれを再現する。
我々は、デコーダバインディングのアドバンテージメトリックであるZSDNを正式に定義し、セキュアな人工知能(AI)パイプラインに対するデプロイメントの考慮事項を概説する。
最後に、学習可能性リスク(例えば、アダプタアライメント)とアウトライン緩和について議論する。
MoBLEは、航空やサイバー物理システムを含む安全クリティカルな領域にAIを配置するための、軽量でアクセラレータフレンドリなアプローチを提供する。
関連論文リスト
- Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Every Step Counts: Decoding Trajectories as Authorship Fingerprints of dLLMs [63.82840470917859]
本稿では,dLLMの復号化機構をモデル属性の強力なツールとして利用できることを示す。
本稿では、デコードステップ間の構造的関係を捉え、モデル固有の振る舞いをよりよく明らかにする、DDM(Directed Decoding Map)と呼ばれる新しい情報抽出手法を提案する。
論文 参考訳(メタデータ) (2025-10-02T06:25:10Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Fooling the Decoder: An Adversarial Attack on Quantum Error Correction [49.48516314472825]
本研究では,基本的なRL曲面符号デコーダ(DeepQ)を目標とし,量子誤り訂正に対する最初の逆攻撃を生成する。
メモリ実験における論理量子ビット寿命を最大5桁まで短縮する攻撃を実証する。
この攻撃は、機械学習ベースのQECの感受性を強調し、堅牢なQEC手法に関するさらなる研究の重要性を強調している。
論文 参考訳(メタデータ) (2025-04-28T10:10:05Z) - CryptoFormalEval: Integrating LLMs and Formal Verification for Automated Cryptographic Protocol Vulnerability Detection [41.94295877935867]
我々は,新たな暗号プロトコルの脆弱性を自律的に識別する大規模言語モデルの能力を評価するためのベンチマークを導入する。
私たちは、新しい、欠陥のある通信プロトコルのデータセットを作成し、AIエージェントが発見した脆弱性を自動的に検証する方法を設計しました。
論文 参考訳(メタデータ) (2024-11-20T14:16:55Z) - Transforming In-Vehicle Network Intrusion Detection: VAE-based Knowledge Distillation Meets Explainable AI [0.0]
本稿では,変分オートエンコーダ(VAE)に基づく知識蒸留手法を用いて,KD-XVAEと呼ばれる高度な侵入検知システムを提案する。
本モデルでは,1669個のパラメータで処理し,バッチ毎に0.3msの推論時間を実現することにより,複雑性を大幅に低減する。
論文 参考訳(メタデータ) (2024-10-11T17:57:16Z) - Provably Robust and Secure Steganography in Asymmetric Resource Scenario [30.12327233257552]
現在の安全なステガノグラフィーアプローチでは、プライベートメッセージの隠蔽と抽出のためにエンコーダとデコーダのペアが必要となる。
本稿では,非対称な資源設定のための確実かつセキュアなステガノグラフィーフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-18T13:32:00Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Double Backpropagation for Training Autoencoders against Adversarial
Attack [15.264115499966413]
本稿では,オートエンコーダに対する敵攻撃に着目した。
本稿では,VAE や DRAW などのオートエンコーダを確保するために,二重バックプロパゲーション (DBP) を採用することを提案する。
論文 参考訳(メタデータ) (2020-03-04T05:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。