論文の概要: UP4LS: User Profile Constructed by Multiple Attributes for Enhancing Linguistic Steganalysis
- arxiv url: http://arxiv.org/abs/2311.01775v2
- Date: Mon, 3 Jun 2024 07:42:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 20:31:18.107719
- Title: UP4LS: User Profile Constructed by Multiple Attributes for Enhancing Linguistic Steganalysis
- Title(参考訳): UP4LS:言語ステガナリシスの強化を目的とした複数属性によるユーザプロファイルの構築
- Authors: Yihao Wang, Ruiqi Song, Lingxiao Li, Yifan Tang, Ru Zhang, Jianyi Liu,
- Abstract要約: 既存のLSメソッドは、ユニークなユーザ特性を見落とし、ソーシャルネットワークのパフォーマンスが低下する。
本稿では,現実的なシナリオでLSを拡張するためのユーザプロファイルを備えたフレームワークであるUP4LSを提案する。
実験により、UP4LSは現実シナリオにおけるLSタスクベースラインの性能を大幅に向上させることができることが示された。
- 参考スコア(独自算出の注目度): 11.131144926440442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linguistic steganalysis (LS) tasks aim to detect whether a text contains secret information. Existing LS methods focus on the deep-learning model design and they achieve excellent results in ideal data. However, they overlook the unique user characteristics, leading to weak performance in social networks. And a few stegos here that further complicate detection. We propose the UP4LS, a framework with the User Profile for enhancing LS in realistic scenarios. Three kinds of user attributes like writing habits are explored to build the profile. For each attribute, the specific feature extraction module is designed. The extracted features are mapped to high-dimensional user features via the deep-learning model of the method to be improved. The content feature is extracted by the language model. Then user and content features are integrated. Existing methods can improve LS results by adding the UP4LS framework without changing their deep-learning models. Experiments show that UP4LS can significantly enhance the performance of LS-task baselines in realistic scenarios, with the overall Acc increased by 25%, F1 increased by 51%, and SOTA results. The improvement is especially pronounced in fewer stegos. Additionally, UP4LS also sets the stage for the related-task SOTA methods to efficient LS.
- Abstract(参考訳): 言語的ステガナリシス(LS)タスクは、テキストに秘密情報が含まれているかどうかを検出することを目的としている。
既存のLS手法はディープラーニングモデル設計に重点を置いており、理想的なデータで優れた結果が得られる。
しかし、彼らはユニークなユーザー特性を見落とし、ソーシャルネットワークのパフォーマンスの低下につながった。
そして、検出をさらに複雑にするいくつかのステゴがここにある。
本稿では,現実的なシナリオでLSを拡張するためのユーザプロファイルを備えたフレームワークであるUP4LSを提案する。
プロファイルを構築するために、書く習慣のような3種類のユーザー属性を探索する。
各属性に対して、特定の特徴抽出モジュールが設計される。
抽出した特徴は、改善する手法のディープラーニングモデルを介して、高次元のユーザ特徴にマッピングされる。
内容特徴は言語モデルによって抽出される。
その後、ユーザーとコンテンツ機能が統合される。
既存の方法では、ディープラーニングモデルを変更することなく、UP4LSフレームワークを追加することで、LS結果を改善することができる。
実験の結果,UP4LSは現実シナリオにおけるLS-taskベースラインの性能を大幅に向上し,Acc全体の25%,F1の51%,SOTAの結果が得られた。
改良は特に少ないステゴスで顕著である。
さらに、UP4LSは、LSを効率的にするための関連するタスクSOTAメソッドのステージも設定する。
関連論文リスト
- Rethinking Pre-trained Feature Extractor Selection in Multiple Instance Learning for Whole Slide Image Classification [2.6703221234079946]
複数インスタンス学習(MIL)は、パッチレベルのアノテーションを必要とせずに、ギガピクセル全体のスライド画像(WSI)分類に好まれる方法となっている。
本研究では,3次元のMIL特徴抽出器(事前学習データセット,バックボーンモデル,事前学習手法)を体系的に評価する。
この結果から,堅牢な自己教師付き学習(SSL)手法の選択は,ドメイン内事前学習データセットのみに依存するよりも,パフォーマンスに大きな影響を与えることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-02T10:34:23Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - ML-SUPERB 2.0: Benchmarking Multilingual Speech Models Across Modeling Constraints, Languages, and Datasets [106.7760874400261]
本稿では、事前訓練されたSSLと教師付き音声モデルを評価するための新しいベンチマークであるML-SUPERB2.0を提案する。
ML-SUPERBのセットアップよりも性能が向上するが、性能は下流モデル設計に依存している。
また、言語とデータセットのパフォーマンスに大きな違いがあることから、よりターゲットを絞ったアプローチの必要性も示唆されている。
論文 参考訳(メタデータ) (2024-06-12T21:01:26Z) - Low-Resource Cross-Lingual Summarization through Few-Shot Learning with Large Language Models [4.9325206373289125]
言語間要約(XLS)は、ソース言語文書とは異なる対象言語で要約を生成することを目的としている。
大規模言語モデル(LLM)では、ゼロショットXLSのパフォーマンスが期待できるが、このタスクの少数ショット機能はまだ探索されていない。
Mistral-7B-Instruct-v0.2, GPT-3.5, GPT-4など, 各種モデルのXLS性能について検討した。
論文 参考訳(メタデータ) (2024-06-07T04:31:41Z) - Linguistic Steganalysis via LLMs: Two Modes for Efficient Detection of Strongly Concealed Stego [6.99735992267331]
LSGCと呼ばれる2つのモードを持つ新しいLSを設計する。
生成モードでは、LS-task"記述"を作成しました。
分類モードでは、LSGCはLS-taskの「記述」を削除し、"causalLM" LLMs を使用して骨組織学的特徴を抽出した。
論文 参考訳(メタデータ) (2024-06-06T16:18:02Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - TriSum: Learning Summarization Ability from Large Language Models with Structured Rationale [66.01943465390548]
本稿では,大規模言語モデルのテキスト要約能力を,コンパクトで局所的なモデルに抽出するフレームワークであるTriSumを紹介する。
本手法は,様々なベンチマーク上での局所モデル性能を向上させる。
また、要約の合理性に関する洞察を提供することで、解釈可能性も向上する。
論文 参考訳(メタデータ) (2024-03-15T14:36:38Z) - MultiLS: A Multi-task Lexical Simplification Framework [21.81108113189197]
マルチタスクLSデータセットの作成を可能にする最初のLSフレームワークであるMultiLSを提案する。
また,MultiLSフレームワークを用いた最初のデータセットであるMultiLS-PTを提案する。
論文 参考訳(メタデータ) (2024-02-22T21:16:18Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Deep Learning Approaches to Lexical Simplification: A Survey [19.079916794185642]
レキシカルシンプリフィケーション(Lexical Simplification、LS)は、複合語を文中の単純な単語に置き換える作業である。
LS は Text Simplification (TS) の語彙的構成要素である
近年のディープラーニングの進歩は、LSに新たな関心を喚起している。
論文 参考訳(メタデータ) (2023-05-19T20:56:22Z) - Zero-Shot Cross-Lingual Summarization via Large Language Models [108.30673793281987]
言語間要約(CLS)は、異なる対象言語で要約を生成する。
近年のLarge Language Models (LLMs) の出現は、計算言語学コミュニティから広く注目を集めている。
本稿では,異なるパラダイムからゼロショットCLSを実行するために,LSMを誘導するために様々なプロンプトを経験的に使用した。
論文 参考訳(メタデータ) (2023-02-28T01:27:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。