論文の概要: NBC-Softmax : Darkweb Author fingerprinting and migration tracking
- arxiv url: http://arxiv.org/abs/2212.08184v1
- Date: Thu, 15 Dec 2022 23:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:10:45.333147
- Title: NBC-Softmax : Darkweb Author fingerprinting and migration tracking
- Title(参考訳): NBC-Softmax : Darkweb Author fingerprinting and migration tracking
- Authors: Gayan K. Kulatilleke, Shekhar S. Chandra, Marius Portmann
- Abstract要約: メトリック学習はデータから距離を学習することを目的としており、類似性に基づくアルゴリズムの性能を向上させる。
我々は,ソフトマックス損失に対するコントラッシブ・ロスに基づくクラスタリング手法であるNBC-Softmaxを提案する。
提案手法は,多数のサンプルの基準を満たすため,ブロックのコントラスト性を実現する。
- 参考スコア(独自算出の注目度): 1.1470070927586016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metric learning aims to learn distances from the data, which enhances the
performance of similarity-based algorithms. An author style detection task is a
metric learning problem, where learning style features with small intra-class
variations and larger inter-class differences is of great importance to achieve
better performance. Recently, metric learning based on softmax loss has been
used successfully for style detection. While softmax loss can produce separable
representations, its discriminative power is relatively poor. In this work, we
propose NBC-Softmax, a contrastive loss based clustering technique for softmax
loss, which is more intuitive and able to achieve superior performance. Our
technique meets the criterion for larger number of samples, thus achieving
block contrastiveness, which is proven to outperform pair-wise losses. It uses
mini-batch sampling effectively and is scalable. Experiments on 4 darkweb
social forums, with NBCSAuthor that uses the proposed NBC-Softmax for author
and sybil detection, shows that our negative block contrastive approach
constantly outperforms state-of-the-art methods using the same network
architecture.
Our code is publicly available at : https://github.com/gayanku/NBC-Softmax
- Abstract(参考訳): メトリック学習はデータから距離を学習することを目的としており、類似性に基づくアルゴリズムの性能を向上させる。
著者スタイル検出タスクはメトリクス学習問題であり、小さなクラス内バリエーションとより大きなクラス間差異を持つ学習スタイル特徴は、よりよいパフォーマンスを達成するために非常に重要である。
近年,ソフトマックス損失に基づくメトリック学習がスタイル検出に成功している。
ソフトマックス損失は分離可能な表現を生み出すが、識別力は比較的低い。
本研究では,より直感的で優れた性能を実現するために,ソフトマックスの損失に基づくクラスタリング手法であるNBC-Softmaxを提案する。
提案手法は,より多くのサンプルの基準を満たすため,ブロックコントラスト性を実現し,ペアワイズ損失よりも優れていた。
ミニバッチサンプリングを効果的に使い、スケーラブルです。
4つのダークwebソーシャルフォーラムにおける実験では、nbcsauthorが提案するnbc-softmaxを著者とシビルの検出に使用し、我々の負のブロックコントラストアプローチが、同じネットワークアーキテクチャを用いて常に最先端の手法を上回ることを示した。
私たちのコードは、https://github.com/gayanku/NBC-Softmaxで公開されています。
関連論文リスト
- Newton Losses: Using Curvature Information for Learning with Differentiable Algorithms [80.37846867546517]
カスタム目的の8つの異なるニューラルネットワークのトレーニング方法を示す。
我々はその2次情報を経験的フィッシャー行列を通して活用する。
ロスロスロスシブルアルゴリズムを用いて、少ない微分可能アルゴリズムに対する大幅な改善を実現する。
論文 参考訳(メタデータ) (2024-10-24T18:02:11Z) - Spectral Aware Softmax for Visible-Infrared Person Re-Identification [123.69049942659285]
Visible-infrared person re-identification (VI-ReID) は、異なるモードの歩行者画像とマッチングすることを目的としている。
既存の手法は依然として、単一モダリティ分類タスクで広く使われているソフトマックス損失訓練パラダイムに従っている。
そこで本研究では, スペクトル対応ソフトマックス(SA-Softmax)の損失について提案する。
論文 参考訳(メタデータ) (2023-02-03T02:57:18Z) - Distinction Maximization Loss: Efficiently Improving Classification
Accuracy, Uncertainty Estimation, and Out-of-Distribution Detection Simply
Replacing the Loss and Calibrating [2.262407399039118]
我々は、DisMax損失を用いた決定論的深層ニューラルネットワークのトレーニングを提案する。
DisMaxは通常、分類精度、不確実性推定、推論効率、アウト・オブ・ディストリビューション検出において、全ての現在のアプローチを同時に上回る。
論文 参考訳(メタデータ) (2022-05-12T04:37:35Z) - Real Additive Margin Softmax for Speaker Verification [14.226089039985151]
AM-Softmaxの損失は、真のマックスマージントレーニングを実装していないことを示す。
ソフトマックストレーニングにおいて真のマージン関数を含むリアルAM-Softmax損失を示す。
論文 参考訳(メタデータ) (2021-10-18T09:11:14Z) - Frequency-aware Discriminative Feature Learning Supervised by
Single-Center Loss for Face Forgery Detection [89.43987367139724]
顔の偽造検出は、コンピュータビジョンへの関心をますます高めている。
近年の業績は良好なものとなっているが、いまだに無視できない問題がある。
本稿では,新しい周波数認識型特徴学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-16T14:17:17Z) - Partial FC: Training 10 Million Identities on a Single Machine [23.7030637489807]
ソフトマックスに基づく損失関数の最適化目標と大規模IDの訓練の難しさを分析した。
実験では、ソフトマックスに基づく損失関数に対して10%のランダムサンプリングクラスしか持たないトレーニングでは、精度の低下は示さない。
また、モデル精度とトレーニング効率を考慮した、非常に効率的な分散サンプリングアルゴリズムを実装した。
論文 参考訳(メタデータ) (2020-10-11T11:15:26Z) - Balanced Meta-Softmax for Long-Tailed Visual Recognition [46.215759445665434]
ソフトマックス関数は、ほとんどの分類タスクで使用されるが、長い尾の配置の下で偏りのある勾配推定を与えることを示す。
本稿では,Softmax のエレガントな非バイアス拡張である Balanced Softmax を提案する。
実験では,Quaird Meta-Softmaxが視覚認識とインスタンスセグメンテーションの両タスクにおいて,最先端の長期分類ソリューションより優れていることを示した。
論文 参考訳(メタデータ) (2020-07-21T12:05:00Z) - Loss Function Search for Face Recognition [75.79325080027908]
最適な候補を自動的に獲得する報酬誘導探索法を開発した。
種々の顔認証ベンチマークの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-10T03:40:10Z) - Taming GANs with Lookahead-Minmax [63.90038365274479]
MNIST, SVHN, CIFAR-10, ImageNetによる実験結果から, Lookahead-minmaxとAdam, Exgradientの併用が明らかとなった。
30倍のパラメータと16倍のミニバッチを使用して、クラスラベルを使わずに12.19のFIDを得ることにより、CIFAR-10上でクラス依存のBigGANのパフォーマンスを上回ります。
論文 参考訳(メタデータ) (2020-06-25T17:13:23Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - More Information Supervised Probabilistic Deep Face Embedding Learning [10.52667214402514]
確率ビューにおいて、マージンに基づくソフトマックスの損失を分析する。
この発見を裏付けるために、Linear-Auto-TS-Encoder (LATSE) と呼ばれる自動エンコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-06-08T12:33:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。