論文の概要: Pseudo-label Based Domain Adaptation for Zero-Shot Text Steganalysis
- arxiv url: http://arxiv.org/abs/2406.18565v1
- Date: Sat, 1 Jun 2024 04:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 06:00:20.777953
- Title: Pseudo-label Based Domain Adaptation for Zero-Shot Text Steganalysis
- Title(参考訳): ゼロショットテキストステガナリシスのための擬似ラベルに基づくドメイン適応
- Authors: Yufei Luo, Zhen Yang, Ru Zhang, Jianyi Liu,
- Abstract要約: 擬似ラベルとドメイン適応(教師なし学習)に基づくドメイン間ステゴテキスト分析法(PDTS)
我々は、ラベル付きソースドメインデータを用いてモデルをトレーニングし、自己学習を通じてラベルなしのターゲットドメインデータに対して擬似ラベルを用いて、ターゲットドメインデータ分布に適応する。
実験結果から,本手法はゼロショットテキストステガナリシスタスクにおいて良好に動作し,対象領域にラベル付きデータがない場合でも高い検出精度を実現し,現在のゼロショットテキストステガナリシス手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 10.587545153412314
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Currently, most methods for text steganalysis are based on deep neural networks (DNNs). However, in real-life scenarios, obtaining a sufficient amount of labeled stego-text for correctly training networks using a large number of parameters is often challenging and costly. Additionally, due to a phenomenon known as dataset bias or domain shift, recognition models trained on a large dataset exhibit poor generalization performance on novel datasets and tasks. Therefore, to address the issues of missing labeled data and inadequate model generalization in text steganalysis, this paper proposes a cross-domain stego-text analysis method (PDTS) based on pseudo-labeling and domain adaptation (unsupervised learning). Specifically, we propose a model architecture combining pre-trained BERT with a single-layer Bi-LSTM to learn and extract generic features across tasks and generate task-specific representations. Considering the differential contributions of different features to steganalysis, we further design a feature filtering mechanism to achieve selective feature propagation, thereby enhancing classification performance. We train the model using labeled source domain data and adapt it to target domain data distribution using pseudo-labels for unlabeled target domain data through self-training. In the label estimation step, instead of using a static sampling strategy, we propose a progressive sampling strategy to gradually increase the number of selected pseudo-label candidates. Experimental results demonstrate that our method performs well in zero-shot text steganalysis tasks, achieving high detection accuracy even in the absence of labeled data in the target domain, and outperforms current zero-shot text steganalysis methods.
- Abstract(参考訳): 現在、テキストステガナリシスのほとんどの方法はディープニューラルネットワーク(DNN)に基づいている。
しかし、現実のシナリオでは、大量のパラメータを使ってネットワークを正しく訓練するのに十分なラベル付きステゴテキストを得ることは、しばしば困難でコストがかかる。
さらに、データセットバイアスやドメインシフトとして知られる現象のため、大規模なデータセットでトレーニングされた認識モデルは、新しいデータセットやタスク上での一般化性能が低い。
そこで本研究では,テキストステガナリシスにおけるラベル付きデータ不足やモデル一般化の問題点に対処するため,擬似ラベルとドメイン適応(教師なし学習)に基づくドメイン間ステガナリシス法(PDTS)を提案する。
具体的には,事前学習したBERTと単一層Bi-LSTMを組み合わせたモデルアーキテクチャを提案し,タスク間の汎用的特徴の学習と抽出を行い,タスク固有の表現を生成する。
ステガナリシスに対する異なる特徴の差分寄与を考慮すると、選択的特徴伝搬を実現するための特徴フィルタリング機構をさらに設計し、分類性能を向上する。
我々は、ラベル付きソースドメインデータを用いてモデルをトレーニングし、自己学習を通してラベルなしのターゲットドメインデータに対して擬似ラベルを用いて、ターゲットドメインデータ分布に適応する。
ラベル推定ステップでは、静的サンプリング戦略の代わりに、選択した擬似ラベル候補数を徐々に増加させるプログレッシブサンプリング戦略を提案する。
実験結果から,本手法はゼロショットテキストステガナリシスタスクにおいて良好に動作し,対象領域にラベル付きデータがない場合でも高い検出精度を実現し,現在のゼロショットテキストステガナリシス手法よりも優れていた。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Multi-Source Soft Pseudo-Label Learning with Domain Similarity-based
Weighting for Semantic Segmentation [2.127049691404299]
本稿では,複数のソースデータセットを用いたセマンティックセグメンテーションのためのドメイン適応トレーニング手法について述べる。
複数のソースモデルから予測対象確率を統合することで,ソフトな擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T05:20:36Z) - Robust Target Training for Multi-Source Domain Adaptation [110.77704026569499]
両レベル最適化に基づく新しいMSDAのためのロバスト目標訓練法(BORT$2$)を提案する。
提案手法は,大規模なDomainNetデータセットを含む3つのMSDAベンチマークにおいて,アートパフォーマンスの状態を達成している。
論文 参考訳(メタデータ) (2022-10-04T15:20:01Z) - Domain Adaptation Principal Component Analysis: base linear method for
learning with out-of-distribution data [55.41644538483948]
ドメイン適応は現代の機械学習において一般的なパラダイムである。
ドメイン適応主成分分析(DAPCA)という手法を提案する。
DAPCAは、領域適応タスクの解決に有用な線形化データ表現を見つける。
論文 参考訳(メタデータ) (2022-08-28T21:10:56Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Adapting Segmentation Networks to New Domains by Disentangling Latent
Representations [14.050836886292869]
ドメイン適応アプローチは、ラベルを持つソースドメインから取得した知識を関連するラベルを持つターゲットドメインに転送する役割を担っている。
本稿では,教師付きトレーニングと比較して適応戦略の相対的有効性を捉えるための新しい性能指標を提案する。
論文 参考訳(メタデータ) (2021-08-06T09:43:07Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z) - Unsupervised Domain Adaptation for Person Re-Identification through
Source-Guided Pseudo-Labeling [2.449909275410288]
人物再識別(re-ID)は、異なるカメラで撮影された同一人物の画像を取得することを目的としている。
Unsupervised Domain Adaptation (UDA)は、ターゲットデータの高価なアノテーションを避けるため、この課題に対する興味深い研究方向である。
ソースドメインとターゲットドメインにおける分類と三重項損失に基づく計量学習を最適化する2分岐アーキテクチャを利用するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-20T14:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。