論文の概要: BlackCATT: Black-box Collusion Aware Traitor Tracing in Federated Learning
- arxiv url: http://arxiv.org/abs/2602.12138v2
- Date: Fri, 13 Feb 2026 16:00:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 15:25:03.343684
- Title: BlackCATT: Black-box Collusion Aware Traitor Tracing in Federated Learning
- Title(参考訳): BlackCATT: フェデレートラーニングにおけるトラクタの追跡をブラックボックスが認識
- Authors: Elena Rodríguez-Lois, Fabio Brau, Maura Pintor, Battista Biggio, Fernando Pérez-González,
- Abstract要約: フェデレートラーニング: BlackCATT におけるブラックボックストレーサトレースのための一般的なコラシオン耐性埋め込み法を提案する。
実験により,異なるアーキテクチャやデータセットにまたがる提案手法の有効性が確認された。
メインタスクの更新不整合に苦しむモデルに対して,提案したBlackCATT+FRには機能正規化が組み込まれている。
- 参考スコア(独自算出の注目度): 51.251962154210474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning has been popularized in recent years for applications involving personal or sensitive data, as it allows the collaborative training of machine learning models through local updates at the data-owners' premises, which does not require the sharing of the data itself. Considering the risk of leakage or misuse by any of the data-owners, many works attempt to protect their copyright, or even trace the origin of a potential leak through unique watermarks identifying each participant's model copy. Realistic accusation scenarios impose a black-box setting, where watermarks are typically embedded as a set of sample-label pairs. The threat of collusion, however, where multiple bad actors conspire together to produce an untraceable model, has been rarely addressed, and previous works have been limited to shallow networks and near-linearly separable main tasks. To the best of our knowledge, this work is the first to present a general collusion-resistant embedding method for black-box traitor tracing in Federated Learning: BlackCATT, which introduces a novel collusion-aware embedding loss term and, instead of using a fixed trigger set, iteratively optimizes the triggers to aid convergence and traitor tracing performance. Experimental results confirm the efficacy of the proposed scheme across different architectures and datasets. Furthermore, for models that would otherwise suffer from update incompatibility on the main task after learning different watermarks (e.g., architectures including batch normalization layers), our proposed BlackCATT+FR incorporates functional regularization through a set of auxiliary examples at the aggregator, promoting a shared feature space among model copies without compromising traitor tracing performance.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、個人データやセンシティブなデータを含むアプリケーションで近年普及しており、データ所有者の施設でのローカルアップデートを通じて機械学習モデルの協調トレーニングを可能にするため、データそのものの共有は不要である。
データ所有者による漏洩や誤用のリスクを考えると、多くの著作は著作権を保護しようとするか、または各参加者のモデルコピーを特定するユニークな透かしを通して潜在的リークの原点を辿る。
現実的な告発のシナリオはブラックボックスの設定を課し、透かしは通常サンプルとラベルのペアのセットとして埋め込まれる。
しかし、複数の悪役が組み合わさって追跡不能なモデルを作るという共謀の脅威はめったに解決されておらず、以前の研究は浅いネットワークとほぼ直線的に分離可能なメインタスクに限られていた。
我々の知る限り、この研究は、フェデレート学習におけるブラックボックストレーサトレースのための一般的なコラシオン耐性埋め込み手法を初めて提示するものである: BlackCATTは、新しいコラシオン認識の埋め込み損失項を導入し、固定トリガセットを使う代わりに、トリガを反復的に最適化し、コンバージェンスとトレーサトレースのパフォーマンスを補助する。
実験により,異なるアーキテクチャやデータセットにまたがる提案手法の有効性が確認された。
さらに、異なる透かし(例えば、バッチ正規化層を含むアーキテクチャ)を学習した後、メインタスクの更新不整合性に悩まされるモデルに対して、提案したBlackCATT+FRは、アグリゲータにおける補助的な例のセットを通じて機能正規化を導入し、裏切り者追跡性能を損なうことなく、モデルコピー間の共有特徴空間を促進させる。
関連論文リスト
- Leave No TRACE: Black-box Detection of Copyrighted Dataset Usage in Large Language Models via Watermarking [51.74368870268278]
我々は,大規模な言語モデルにおける著作権付きデータセット使用量を完全にブラックボックスで検出するフレームワークであるTRACEを提案する。
textttTRACEは、プライベートキーでガイドされた歪みのない透かしでデータセットを書き換える。
さまざまなデータセットとモデルファミリにわたって、TRACEは一貫して重要な検出を実現している。
論文 参考訳(メタデータ) (2025-10-03T12:53:02Z) - CBW: Towards Dataset Ownership Verification for Speaker Verification via Clustering-based Backdoor Watermarking [85.68235482145091]
大規模音声データセットは貴重な知的財産となった。
本稿では,新しいデータセットのオーナシップ検証手法を提案する。
我々のアプローチはクラスタリングに基づくバックドア透かし(CBW)を導入している。
我々は,ベンチマークデータセットに対する広範な実験を行い,本手法の有効性とロバスト性を検証した。
論文 参考訳(メタデータ) (2025-03-02T02:02:57Z) - Exploring Federated Learning Dynamics for Black-and-White-Box DNN Traitor Tracing [49.1574468325115]
本稿では,フェデレートラーニングにおける白黒裏切り者追跡の適応について検討する。
以上の結果から,情報漏えいを疑うデータ所有者を識別するコラシオン耐性トレプレクターの追跡は,訓練の初期段階においてもFLフレームワークで可能であることが示唆された。
論文 参考訳(メタデータ) (2024-07-02T09:54:35Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。