論文の概要: UP4LS: User Profile Constructed by Multiple Attributes for Enhancing
Linguistic Steganalysis
- arxiv url: http://arxiv.org/abs/2311.01775v1
- Date: Fri, 3 Nov 2023 08:20:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 14:47:38.487032
- Title: UP4LS: User Profile Constructed by Multiple Attributes for Enhancing
Linguistic Steganalysis
- Title(参考訳): UP4LS:言語ステガナリシスを促進する複数の属性によるユーザプロファイルの構築
- Authors: Yihao Wang, Ruiqi Song, Ru Zhang, and Jianyi Liu
- Abstract要約: 言語的ステガナリシス(LS)タスクは、言語的ステガナリシスによって生成されるステゴを効果的に検出することを目的としている。
既存のLSメソッドは、特有のユーザ特性を見落とし、ソーシャルネットワークのパフォーマンスが低下する。
本稿では,ユーザプロファイルを用いた新しいフレームワークであるUP4LSを提案する。
- 参考スコア(独自算出の注目度): 5.847402507684809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linguistic steganalysis (LS) tasks aim to effectively detect stegos generated
by linguistic steganography. Existing LS methods overlook the distinctive user
characteristics, leading to weak performance in social networks. The limited
occurrence of stegos further complicates detection. In this paper, we propose
the UP4LS, a novel framework with the User Profile for enhancing LS
performance. Specifically, by delving into post content, we explore user
attributes like writing habits, psychological states, and focal areas, thereby
building the user profile for LS. For each attribute, we design the identified
feature extraction module. The extracted features are mapped to
high-dimensional user features via deep-learning networks from existing
methods. Then the language model is employed to extract content features. The
user and content features are integrated to optimize feature representation.
During the training phase, we prioritize the distribution of stegos.
Experiments demonstrate that UP4LS can significantly enhance the performance of
existing methods, and an overall accuracy improvement of nearly 25%. In
particular, the improvement is especially pronounced with fewer stego samples.
Additionally, UP4LS also sets the stage for studies on related tasks,
encouraging extensive applications on LS tasks.
- Abstract(参考訳): 言語的ステガナリシス(LS)タスクは、言語的ステガナリシスによって生成されるステゴを効果的に検出することを目的としている。
既存のLSメソッドは、特有のユーザ特性を見落とし、ソーシャルネットワークのパフォーマンスが低下する。
ステゴの限られた発生は検出をさらに複雑にする。
本稿では,ユーザプロファイルを用いた新しいフレームワークであるUP4LSを提案する。
具体的には、投稿内容を掘り下げることで、執筆習慣、心理的状態、焦点領域などのユーザ属性を探索し、LSのユーザプロファイルを構築する。
各属性に対して、識別された特徴抽出モジュールを設計する。
抽出した特徴を既存手法のディープラーニングネットワークを介して高次元ユーザ特徴にマッピングする。
次に、言語モデルを用いてコンテンツの特徴を抽出する。
ユーザとコンテンツ機能は統合され、機能表現を最適化する。
トレーニングフェーズでは,ステゴの分布を優先する。
実験により、UP4LSは既存の手法の性能を大幅に向上し、全体的な精度は25%近く向上した。
特に、改良は特に少ないステゴサンプルで発音される。
さらに、UP4LSは関連するタスクの研究のステージも設定し、LSタスクの広範な応用を奨励している。
関連論文リスト
- Rethinking Pre-trained Feature Extractor Selection in Multiple Instance Learning for Whole Slide Image Classification [2.6703221234079946]
複数インスタンス学習(MIL)は、パッチレベルのアノテーションを必要とせずに、ギガピクセル全体のスライド画像(WSI)分類に好まれる方法となっている。
本研究では,3次元のMIL特徴抽出器(事前学習データセット,バックボーンモデル,事前学習手法)を体系的に評価する。
この結果から,堅牢な自己教師付き学習(SSL)手法の選択は,ドメイン内事前学習データセットのみに依存するよりも,パフォーマンスに大きな影響を与えることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-02T10:34:23Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - ML-SUPERB 2.0: Benchmarking Multilingual Speech Models Across Modeling Constraints, Languages, and Datasets [106.7760874400261]
本稿では、事前訓練されたSSLと教師付き音声モデルを評価するための新しいベンチマークであるML-SUPERB2.0を提案する。
ML-SUPERBのセットアップよりも性能が向上するが、性能は下流モデル設計に依存している。
また、言語とデータセットのパフォーマンスに大きな違いがあることから、よりターゲットを絞ったアプローチの必要性も示唆されている。
論文 参考訳(メタデータ) (2024-06-12T21:01:26Z) - Low-Resource Cross-Lingual Summarization through Few-Shot Learning with Large Language Models [4.9325206373289125]
言語間要約(XLS)は、ソース言語文書とは異なる対象言語で要約を生成することを目的としている。
大規模言語モデル(LLM)では、ゼロショットXLSのパフォーマンスが期待できるが、このタスクの少数ショット機能はまだ探索されていない。
Mistral-7B-Instruct-v0.2, GPT-3.5, GPT-4など, 各種モデルのXLS性能について検討した。
論文 参考訳(メタデータ) (2024-06-07T04:31:41Z) - Linguistic Steganalysis via LLMs: Two Modes for Efficient Detection of Strongly Concealed Stego [6.99735992267331]
LSGCと呼ばれる2つのモードを持つ新しいLSを設計する。
生成モードでは、LS-task"記述"を作成しました。
分類モードでは、LSGCはLS-taskの「記述」を削除し、"causalLM" LLMs を使用して骨組織学的特徴を抽出した。
論文 参考訳(メタデータ) (2024-06-06T16:18:02Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - TriSum: Learning Summarization Ability from Large Language Models with Structured Rationale [66.01943465390548]
本稿では,大規模言語モデルのテキスト要約能力を,コンパクトで局所的なモデルに抽出するフレームワークであるTriSumを紹介する。
本手法は,様々なベンチマーク上での局所モデル性能を向上させる。
また、要約の合理性に関する洞察を提供することで、解釈可能性も向上する。
論文 参考訳(メタデータ) (2024-03-15T14:36:38Z) - MultiLS: A Multi-task Lexical Simplification Framework [21.81108113189197]
マルチタスクLSデータセットの作成を可能にする最初のLSフレームワークであるMultiLSを提案する。
また,MultiLSフレームワークを用いた最初のデータセットであるMultiLS-PTを提案する。
論文 参考訳(メタデータ) (2024-02-22T21:16:18Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Deep Learning Approaches to Lexical Simplification: A Survey [19.079916794185642]
レキシカルシンプリフィケーション(Lexical Simplification、LS)は、複合語を文中の単純な単語に置き換える作業である。
LS は Text Simplification (TS) の語彙的構成要素である
近年のディープラーニングの進歩は、LSに新たな関心を喚起している。
論文 参考訳(メタデータ) (2023-05-19T20:56:22Z) - Zero-Shot Cross-Lingual Summarization via Large Language Models [108.30673793281987]
言語間要約(CLS)は、異なる対象言語で要約を生成する。
近年のLarge Language Models (LLMs) の出現は、計算言語学コミュニティから広く注目を集めている。
本稿では,異なるパラダイムからゼロショットCLSを実行するために,LSMを誘導するために様々なプロンプトを経験的に使用した。
論文 参考訳(メタデータ) (2023-02-28T01:27:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。