論文の概要: Watermarking Decision Tree Ensembles
- arxiv url: http://arxiv.org/abs/2410.04570v1
- Date: Sun, 6 Oct 2024 17:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 06:36:17.337972
- Title: Watermarking Decision Tree Ensembles
- Title(参考訳): 透かし決定木が集まる
- Authors: Stefano Calzavara, Lorenzo Cazzaro, Donald Gera, Salvatore Orlando,
- Abstract要約: 本稿では,決定木アンサンブルに対する最初の透かし方式について述べる。
最も関係のある脅威に対する正確性とセキュリティの観点から、優れた結果を示す。
- 参考スコア(独自算出の注目度): 3.5621555706183896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Protecting the intellectual property of machine learning models is a hot topic and many watermarking schemes for deep neural networks have been proposed in the literature. Unfortunately, prior work largely neglected the investigation of watermarking techniques for other types of models, including decision tree ensembles, which are a state-of-the-art model for classification tasks on non-perceptual data. In this paper, we present the first watermarking scheme designed for decision tree ensembles, focusing in particular on random forest models. We discuss watermark creation and verification, presenting a thorough security analysis with respect to possible attacks. We finally perform an experimental evaluation of the proposed scheme, showing excellent results in terms of accuracy and security against the most relevant threats.
- Abstract(参考訳): 機械学習モデルの知的特性を保護することはホットな話題であり、深層ニューラルネットワークのための多くの透かしスキームが文献で提案されている。
残念なことに、以前の研究は、非知覚データ上の分類タスクのための最先端のモデルである決定木アンサンブルを含む、他のタイプのモデルの透かし技術の調査をほとんど無視していた。
本稿では,決定木アンサンブル用に設計された最初の透かし方式について述べる。
我々はウォーターマークの作成と検証について論じ、攻撃の可能性について徹底的なセキュリティ分析を提示する。
提案手法を実験的に評価し、最も関連性の高い脅威に対する精度と安全性の点で優れた結果を示す。
関連論文リスト
- Watermarking Recommender Systems [52.207721219147814]
本稿では,レコメンダシステムに特化した新しい手法であるAutoregressive Out-of-Distribution Watermarking (AOW)を紹介する。
提案手法では,初期項目の選択とオラクルモデルによるクエリを行い,その後に予測スコアの小さい項目を選択する。
透かしの有効性を評価するため、このモデルでは、切り捨てられた透かしシーケンスが与えられた後続の項目を予測することを課題とする。
論文 参考訳(メタデータ) (2024-07-17T06:51:24Z) - A Survey of Fragile Model Watermarking [14.517951900805317]
モデルの脆弱な透かしは、改ざんを検出する強力なツールとして徐々に現れてきた。
本稿では, モデルフラクタブルウォーターマーキングの創業以来の課題について概説する。
論文 参考訳(メタデータ) (2024-06-07T10:23:25Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - SoK: How Robust is Image Classification Deep Neural Network
Watermarking? (Extended Version) [16.708069984516964]
我々は,最近提案された,ロバスト性を主張する透かし方式が,大規模な除去攻撃に対して堅牢であるか否かを評価する。
調査されたウォーターマーキングスキームのいずれも、実際のデータセットでは堅牢ではない。
我々は,より現実的な敵モデルを用いて,より広範囲にわたる除去攻撃に対して,透かし方式を評価する必要があることを示す。
論文 参考訳(メタデータ) (2021-08-11T00:23:33Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Evaluating the Robustness of Trigger Set-Based Watermarks Embedded in
Deep Neural Networks [22.614495877481144]
最先端のトリガーセットベースの透かしアルゴリズムは、所有権を証明するという設計目標を達成することができない。
本稿では,対象モデルの基盤となる透かしアルゴリズムに対する敵の知識を活用する新しい適応攻撃を提案する。
論文 参考訳(メタデータ) (2021-06-18T14:23:55Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - A Systematic Review on Model Watermarking for Neural Networks [1.2691047660244335]
この研究は、機械学習モデルのための異なるクラスの透かしスキームを特定し解析する分類法を提案する。
これは、構造化推論を可能にする統一的な脅威モデルを導入し、ウォーターマーキング手法の有効性の比較を行う。
望ましいセキュリティ要件とMLモデルの透かしに対する攻撃を体系化する。
論文 参考訳(メタデータ) (2020-09-25T12:03:02Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。