論文の概要: Using Set Covering to Generate Databases for Holistic Steganalysis
- arxiv url: http://arxiv.org/abs/2211.03447v1
- Date: Mon, 7 Nov 2022 10:53:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 19:09:15.747768
- Title: Using Set Covering to Generate Databases for Holistic Steganalysis
- Title(参考訳): 集合被覆を用いた総合的ステグアナリシスのためのデータベース作成
- Authors: Rony Abecidan (CRIStAL, CNRS), Vincent Itier (CRIStAL, IMT Nord
Europe, CNRS), J\'er\'emie Boulanger (CRIStAL, CNRS), Patrick Bas (CRIStAL,
CNRS), Tom\'a\v{s} Pevn\'y (CTU)
- Abstract要約: 我々は、CSM(Cover Source Mismatch)の起源を研究するために、処理パイプラインのグリッドを探索する。
集合被覆グリードアルゴリズムを用いて、集合内の代表とパイプライン間の最大の後悔を最小限に抑える代表パイプラインを選択する。
我々の分析は、多様性を育むためには、デノイング、シャープニング、ダウンサンプリングといったパラメータが重要であることも示しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Within an operational framework, covers used by a steganographer are likely
to come from different sensors and different processing pipelines than the ones
used by researchers for training their steganalysis models. Thus, a performance
gap is unavoidable when it comes to out-of-distributions covers, an extremely
frequent scenario called Cover Source Mismatch (CSM). Here, we explore a grid
of processing pipelines to study the origins of CSM, to better understand it,
and to better tackle it. A set-covering greedy algorithm is used to select
representative pipelines minimizing the maximum regret between the
representative and the pipelines within the set. Our main contribution is a
methodology for generating relevant bases able to tackle operational CSM.
Experimental validation highlights that, for a given number of training
samples, our set covering selection is a better strategy than selecting random
pipelines or using all the available pipelines. Our analysis also shows that
parameters as denoising, sharpening, and downsampling are very important to
foster diversity. Finally, different benchmarks for classical and wild
databases show the good generalization property of the extracted databases.
Additional resources are available at
github.com/RonyAbecidan/HolisticSteganalysisWithSetCovering.
- Abstract(参考訳): 運用フレームワーク内では、ステガノグラフィーが使用するカバーは、研究者がステガナリシスモデルをトレーニングするために使用するものと異なるセンサーと異なる処理パイプラインから来る可能性が高い。
したがって、アウト・オブ・ディストリビューションに関してはパフォーマンスギャップは避けられない。CSM(Cover Source Mismatch)と呼ばれる非常に頻繁に発生するシナリオだ。
ここでは,csmの起源を研究するための処理パイプラインのグリッドを調査し,その理解を深め,それに取り組む。
集合被覆グリードアルゴリズムを用いて、集合内の代表とパイプライン間の最大の後悔を最小限に抑える代表パイプラインを選択する。
私たちの主な貢献は、運用上のcsmに取り組むことのできる関連するベースを生成するための方法論です。
実験的な検証では、特定の数のトレーニングサンプルに対して、ランダムなパイプラインの選択や利用可能なパイプラインをすべて使用するよりも、選択をカバーする方が優れた戦略であることを強調しています。
分析の結果,脱音,シャープ化,ダウンサンプリングといったパラメータが多様性を育む上で非常に重要であることが明らかとなった。
最後に、古典データベースと野生データベースのベンチマークは、抽出したデータベースの優れた一般化特性を示している。
追加のリソースはgithub.com/ronyabecidan/holisticsteg analysiswithsetcoveringで入手できる。
関連論文リスト
- Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号工程における多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法の本質的な能力を推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法の総合的な比較と,ユーザのガイドラインとして推奨されるパラメータについて紹介する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
また,モーザイクアーティファクトを緩和するのには単純だが有効であるHR特徴量に対して,きめ細かな近傍選択戦略を開発した。
提案するReSFUフレームワークは,異なるセグメンテーションアプリケーション上での良好な性能を一貫して達成する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning [98.26836657967162]
textbfAgentOhanaは、さまざまなシナリオにまたがって、異なる環境からエージェントのトラジェクトリを集約する。
AIエージェント用に調整された大規模なアクションモデルである textbfxLAM-v0.1 は、さまざまなベンチマークで例外的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-23T18:56:26Z) - Leveraging Data Geometry to Mitigate CSM in Steganalysis [1.130790932059036]
運用シナリオでは、ステガノグラフィーは様々なセンサーや処理パイプラインのカバーセットを使用し、研究者がステガノリシスモデルを訓練するために使用するものとは大きく異なる。
これにより、アウト・オブ・ディストリビューション・カバー(一般にCSM(Cover Source Mismatch)と呼ばれる)を扱う場合、必然的なパフォーマンスギャップが生じる。
本研究では,テストイメージを同じパイプラインで処理するシナリオについて考察する。本研究の目的は,ターゲットに対する最大一般化を可能にするトレーニングデータセットを特定することである。
論文 参考訳(メタデータ) (2023-10-06T09:08:25Z) - Towards Personalized Preprocessing Pipeline Search [52.59156206880384]
ClusterP3Sは、Clusteringを介してパイプライン検索をパーソナライズする新しいフレームワークである。
本稿では,クラスタを協調的に学習し,最適なパイプラインを探索するための階層的探索手法を提案する。
ベンチマーク分類データセットの実験では、機能的に前処理可能なパイプライン探索の有効性が示されている。
論文 参考訳(メタデータ) (2023-02-28T05:45:05Z) - Experiments on Generalizability of BERTopic on Multi-Domain Short Text [2.352645870795664]
我々は,最先端のBERTopicアルゴリズムが短時間のマルチドメインテキスト上でどのように機能するかを考察する。
BERTopicを用いたHDBSCANクラスタリングアルゴリズムの性能解析を行った。
HDBSCANをk-Meansに置き換えると、同様の性能を得るが、外れ値がない。
論文 参考訳(メタデータ) (2022-12-16T13:07:39Z) - Reinforced Approximate Exploratory Data Analysis [7.974685452145769]
まず,対話型データ探索環境におけるサンプリングの影響について検討し,近似誤差を導入する。
本稿では, サンプル選択を最適化し, 分析および洞察フローの持続性を維持するための, 深層強化学習(DRL)に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-12T20:20:22Z) - GFlowCausal: Generative Flow Networks for Causal Discovery [27.51595081346858]
本稿では,GFlowCausalと呼ばれる観測データからDAG(Directed Acyclic Graph)を学習するための新しい手法を提案する。
GFlowCausalは、事前定義された報酬に比例した確率を持つシーケンシャルアクションによって、ハイリワードDAGを生成するための最良のポリシーを学ぶことを目的としている。
合成データセットと実データセットの両方について広範な実験を行い、提案手法が優れていることを示すとともに、大規模環境での良好な性能を示す。
論文 参考訳(メタデータ) (2022-10-15T04:07:39Z) - Optimal Decision Making in High-Throughput Virtual Screening Pipelines [12.366455276434513]
実験および/および計算評価を含むスクリーニングキャンペーンのほとんど(すべてではないとしても)に適用する2つの最適化フレームワークを提案する。
特に、長い非コーディングRNA(lncRNA)分類のための最適な計算キャンペーンを実例として考察する。
シミュレーションの結果,提案手法は候補候補に対する有効選択コストを大幅に削減することが示された。
論文 参考訳(メタデータ) (2021-09-23T22:58:14Z) - Deep Shells: Unsupervised Shape Correspondence with Optimal Transport [52.646396621449]
本稿では,3次元形状対応のための教師なし学習手法を提案する。
提案手法は,複数のデータセット上での最先端技術よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-28T22:24:07Z) - Unshuffling Data for Improved Generalization [65.57124325257409]
トレーニングディストリビューションを越えた一般化は、マシンラーニングにおける中核的な課題である。
本研究では,複数の学習環境として扱われる非d.d.サブセットにデータを分割することで,アウト・オブ・ディストリビューションの一般化を向上したモデル学習を導出できることを示す。
論文 参考訳(メタデータ) (2020-02-27T03:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。