論文の概要: Compiler Provenance Recovery for Multi-CPU Architectures Using a
Centrifuge Mechanism
- arxiv url: http://arxiv.org/abs/2211.13110v1
- Date: Tue, 22 Nov 2022 01:42:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 16:25:53.501280
- Title: Compiler Provenance Recovery for Multi-CPU Architectures Using a
Centrifuge Mechanism
- Title(参考訳): centrifuge機構を用いたマルチcpuアーキテクチャのコンパイラプロヴァンス回復
- Authors: Yuhei Otsubo, Akira Otsuka and Mamoru Mimura
- Abstract要約: 素入力ビットストリームを受信し、前処理なしでクラスラベルを出力する最初のBSRを提案する。
コンパイラリカバリ(BSR)に遠心分離機構を適用し,優れた分類を実現した。
- 参考スコア(独自算出の注目度): 1.160208922584163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bit-stream recognition (BSR) has many applications, such as forensic
investigations, detection of copyright infringement, and malware analysis. We
propose the first BSR that takes a bare input bit-stream and outputs a class
label without any preprocessing. To achieve our goal, we propose a centrifuge
mechanism, where the upstream layers (sub-net) capture global features and tell
the downstream layers (main-net) to switch the focus, even if a part of the
input bit-stream has the same value. We applied the centrifuge mechanism to
compiler provenance recovery, a type of BSR, and achieved excellent
classification. Additionally, downstream transfer learning (DTL), one of the
learning methods we propose for the centrifuge mechanism, pre-trains the
main-net using the sub-net's ground truth instead of the sub-net's output. We
found that sub-predictions made by DTL tend to be highly accurate when the
sub-label classification contributes to the essence of the main prediction.
- Abstract(参考訳): ビットストリーム認識(BSR)には、法医学的な調査、著作権侵害の検出、マルウェア分析など、多くの応用がある。
素入力ビットストリームを受信し、前処理なしでクラスラベルを出力する最初のBSRを提案する。
そこで我々は,上流層 (サブネット) がグローバル特徴を捉え, 下流層 (メインネット) に対して, 入力ビットストリームの一部が同じ値であっても, フォーカスを切り替えるように指示する遠心分離機構を提案する。
我々は,bsrの一種であるコンパイラ・プロヴァンス・リカバリに遠心分離機構を適用し,優れた分類を達成した。
さらに,遠心分離機構の学習手法の一つであるダウンストリーム転送学習 (dtl) では,サブネットの出力ではなく,サブネットの基底真理を用いてメインネットを事前学習する。
その結果,dtlによるサブ予測は,サブラベル分類が主予測の本質に寄与する場合に高い精度を示す傾向にあった。
関連論文リスト
- Subspace Prototype Guidance for Mitigating Class Imbalance in Point Cloud Semantic Segmentation [23.250178208474928]
本稿では,サブスペースのプロトタイプガイダンス(textbfSPG)を用いて,セグメンテーションネットワークのトレーニングを指導する手法を提案する。
提案手法はセグメンテーション性能を大幅に向上し,最先端の手法を超越する。
論文 参考訳(メタデータ) (2024-08-20T04:31:46Z) - Improved Out-of-Scope Intent Classification with Dual Encoding and Threshold-based Re-Classification [6.975902383951604]
現在の手法は、予測不可能なアウトリーチ分布で困難に直面している。
本稿では,これらの課題に対処するため,Dual for Threshold-Based Re-Classification (DETER)を提案する。
我々のモデルは以前のベンチマークより優れており、未知のインテントに対するF1スコアの13%と5%に向上しています。
論文 参考訳(メタデータ) (2024-05-30T11:46:42Z) - LAA-Net: Localized Artifact Attention Network for Quality-Agnostic and Generalizable Deepfake Detection [12.567069964305265]
本稿では,LAA-Net(Localized Artifact Attention Network)と呼ばれる高品質なディープフェイク検出手法を提案する。
高品質なディープフェイク検出のための既存の方法は、主に暗黙の注意機構を備えた教師付きバイナリ分類器に基づいている。
いくつかのベンチマークで行った実験は、AUC(Area Under the Curve)とAP(Average Precision)の観点から、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-01-24T23:42:08Z) - Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - UNFUSED: UNsupervised Finetuning Using SElf supervised Distillation [53.06337011259031]
音声分類に自己教師付き学習を活用する新しい手法UnFuSeDを提案する。
エンコーダを用いて、実際の微調整ステップの前に、教師なしの微調整のための擬似ラベルを生成する。
UnFuSeDはLAPEベンチマークで最先端の結果を達成し、すべてのベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-03-10T02:43:36Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Towards Understanding Why Mask-Reconstruction Pretraining Helps in
Downstream Tasks [129.1080795985234]
Mask-Reconstruction Pretraining (MRP)はランダムにマスク入力パッチにアプローチし、オートエンコーダを介してこれらのマスクパッチの画素や意味的特徴を再構築する。
下流タスクでは、事前訓練されたエンコーダの微調整が、スクラッチから訓練された従来の教師付き学習(SL)を著しく上回っている。
論文 参考訳(メタデータ) (2022-06-08T11:49:26Z) - Class Token and Knowledge Distillation for Multi-head Self-Attention
Speaker Verification Systems [20.55054374525828]
本稿では,ディープニューラルネットワーク(DNN)に基づく話者検証システムの性能向上のための3つの新しいアプローチについて検討する。
まず,クラストークンと呼ばれる学習可能なベクトルを用いて,平均的なグローバルプール機構を置換し,埋め込みを抽出する手法を提案する。
第2に,KD(Knowledge Distillation)哲学を用いて教師と学生のペアのネットワークを訓練するための蒸留表現トークンを追加した。
論文 参考訳(メタデータ) (2021-11-06T09:47:05Z) - Reservoir-Based Distributed Machine Learning for Edge Operation [0.6451914896767135]
スマートセンサを組み込んだ機械学習アルゴリズムの現場学習のための新しい設計を紹介します。
無線周波数(RF)スペクトルセンサを用いた分散トレーニングシナリオについて述べる。
論文 参考訳(メタデータ) (2021-04-01T20:06:40Z) - LabelEnc: A New Intermediate Supervision Method for Object Detection [78.74368141062797]
本稿では,オブジェクト検出システムのトレーニングを促進するため,LabelEncという新たな中間監視手法を提案する。
鍵となるアイデアは、新しいラベル符号化機能を導入し、接地木ラベルを潜伏埋め込みにマッピングすることである。
実験の結果,COCOデータセット上での検出精度は,約2%向上した。
論文 参考訳(メタデータ) (2020-07-07T08:55:05Z) - LFD-ProtoNet: Prototypical Network Based on Local Fisher Discriminant
Analysis for Few-shot Learning [98.64231310584614]
Prototypeal Network (ProtoNet) は、各クラスのプロトタイプ表現までの距離を用いてメートル法学習と分類を行う、数発の学習フレームワークである。
提案手法の有用性は,理論上は予測されるリスクバウンドを提供し,MiniImageNetとタイレッドImageNetに優れた分類精度を実証的に示すことによって示される。
論文 参考訳(メタデータ) (2020-06-15T11:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。