論文の概要: Rotation, Scale, and Translation Resilient Black-box Fingerprinting for Intellectual Property Protection of EaaS Models
- arxiv url: http://arxiv.org/abs/2510.16706v1
- Date: Sun, 19 Oct 2025 04:15:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.103029
- Title: Rotation, Scale, and Translation Resilient Black-box Fingerprinting for Intellectual Property Protection of EaaS Models
- Title(参考訳): EaaSモデルの知的財産保護のための回転, スケール, 翻訳耐性ブラックボックスフィンガープリント
- Authors: Hongjie Zhang, Zhiqi Zhao, Hanzhou Wu, Zhihua Xia, Athanasios V. Vasilakos,
- Abstract要約: 既存の透かし技法を改良するだけでなく,Eモデルの指紋認証フレームワークを提案する。
提案手法は,埋め込み空間の位相構造を幾何学的に解析することにより,Eモデルのオーナシップを確立する。
本研究は,Eモデルの固有特性を明らかにし,ブラックボックスシナリオ下でのEモデルのオーナシップ検証に有望なソリューションを提供する。
- 参考スコア(独自算出の注目度): 25.317503091878933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature embedding has become a cornerstone technology for processing high-dimensional and complex data, which results in that Embedding as a Service (EaaS) models have been widely deployed in the cloud. To protect the intellectual property of EaaS models, existing methods apply digital watermarking to inject specific backdoor triggers into EaaS models by modifying training samples or network parameters. However, these methods inevitably produce detectable patterns through semantic analysis and exhibit susceptibility to geometric transformations including rotation, scaling, and translation (RST). To address this problem, we propose a fingerprinting framework for EaaS models, rather than merely refining existing watermarking techniques. Different from watermarking techniques, the proposed method establishes EaaS model ownership through geometric analysis of embedding space's topological structure, rather than relying on the modified training samples or triggers. The key innovation lies in modeling the victim and suspicious embeddings as point clouds, allowing us to perform robust spatial alignment and similarity measurement, which inherently resists RST attacks. Experimental results evaluated on visual and textual embedding tasks verify the superiority and applicability. This research reveals inherent characteristics of EaaS models and provides a promising solution for ownership verification of EaaS models under the black-box scenario.
- Abstract(参考訳): 機能埋め込みは、高次元および複雑なデータを処理するための基盤技術となり、その結果、Embedding as a Service(EaaS)モデルがクラウドに広くデプロイされた。
EaaSモデルの知的特性を保護するため、既存の手法では、トレーニングサンプルやネットワークパラメータを変更して、デジタル透かしを使用して、特定のバックドアトリガをEaaSモデルに注入する。
しかし、これらの手法は、意味解析を通じて検出可能なパターンを必然的に生成し、回転、スケーリング、翻訳(RST)を含む幾何学的変換への感受性を示す。
この問題に対処するために,既存の透かし技法を単に洗練するのではなく,EaaSモデルのフィンガープリントフレームワークを提案する。
ウォーターマーキング手法と異なり、提案手法は、修正されたトレーニングサンプルやトリガに頼るのではなく、埋め込み空間のトポロジ構造を幾何学的に解析することで、EaaSモデルのオーナシップを確立する。
鍵となるイノベーションは、犠牲者と疑わしい埋め込みを点雲としてモデル化することであり、ロバストな空間アライメントと類似度の測定を可能にします。
視覚的およびテキスト的埋め込みタスクで評価された実験結果は、優越性と適用性を検証する。
本研究は,EaaSモデル固有の特徴を明らかにし,ブラックボックスシナリオ下でのEaaSモデルのオーナシップ検証に期待できるソリューションを提供する。
関連論文リスト
- SoK: Large Language Model Copyright Auditing via Fingerprinting [69.14570598973195]
既存の手法をホワイトボックスとブラックボックスのアプローチに分類する統一的な枠組みと形式的な分類法を導入する。
現実的な展開シナリオ下でのLDMフィンガープリント評価のための最初の体系的ベンチマークであるLeaFBenchを提案する。
論文 参考訳(メタデータ) (2025-08-27T12:56:57Z) - ATOM: A Framework of Detecting Query-Based Model Extraction Attacks for Graph Neural Networks [18.488168353080464]
グラフニューラルネットワーク(GNN)は、グラフベースの機械学習・アズ・ア・サービス(GML)プラットフォームで注目を集めているが、グラフベースのモデル抽出攻撃(MEAs)に弱いままである。
GNNに適した新しいリアルタイムMEA検出フレームワークであるATOMを提案する。
ATOMはシーケンシャルモデリングと強化学習を統合して、進化する攻撃パターンを動的に検出し、$k$coreの埋め込みを利用して構造特性をキャプチャし、検出精度を向上させる。
論文 参考訳(メタデータ) (2025-03-20T20:25:32Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [81.93945602120453]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Progressive Open Space Expansion for Open-Set Model Attribution [19.985618498466042]
我々は,OSMA(Open-Set Model Attribution)という課題に焦点をあて,既知のモデルに画像を同時に属性付けし,未知のモデルからそれらを識別する。
既存のオープンセット認識(OSR)タスクと比較して、OSMAは既知のモデルと未知のモデルとの区別が視覚的に知覚できないトレースに限られているため、より難しい。
本稿では, 閉集合と同一のセマンティクスを維持しつつ, 異なる認識不能なトレースを埋め込んだオープンセットサンプルをシミュレートした, プログレッシブオープンスペース拡張(POSE)ソリューションを提案する。
論文 参考訳(メタデータ) (2023-03-13T05:53:11Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks against Interpretable Models [1.8752655643513647]
XAIツールは、モデル抽出攻撃の脆弱性を増大させる可能性がある。
そこで本研究では,ブラックボックス設定下での解釈可能なモデルに対して,新たなリトレーニング(学習)に基づくモデル抽出攻撃フレームワークを提案する。
AUTOLYCUSは非常に効果的で、最先端の攻撃に比べてクエリが大幅に少ないことが示される。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - Supply of engineering techniques and software design patterns in
psychoanalysis and psychometrics sciences [0.0]
本研究の目的は、心理療法におけるCBT法(認知行動療法)の弱点を改善するために、ソフトウェア技術、モデル、人工知能アルゴリズムを導入することである。
本研究の目的は、隠れた人間の変数が検査結果から推測される心理測定実験の実装である。
論文 参考訳(メタデータ) (2021-08-16T08:36:37Z) - PermuteAttack: Counterfactual Explanation of Machine Learning Credit
Scorecards [0.0]
本稿では、金融における小売クレジットスコアリングに使用される機械学習(ML)モデルの検証と説明のための新しい方向性と方法論について述べる。
提案するフレームワークは人工知能(AI)のセキュリティと敵MLの分野からモチベーションを引き出す。
論文 参考訳(メタデータ) (2020-08-24T00:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。