論文の概要: Transfer Learning for Security: Challenges and Future Directions
- arxiv url: http://arxiv.org/abs/2403.00935v1
- Date: Fri, 1 Mar 2024 19:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 15:58:29.192116
- Title: Transfer Learning for Security: Challenges and Future Directions
- Title(参考訳): セキュリティのためのトランスファーラーニング : 課題と今後の方向性
- Authors: Adrian Shuai Li, Arun Iyengar, Ashish Kundu, Elisa Bertino
- Abstract要約: トランスファーラーニング(TL)はこの課題に取り組むための有望なフレームワークとして登場した。
本稿では,TL技術を活用したセキュリティの最近の進歩を概観する。
- 参考スコア(独自算出の注目度): 11.309626483063237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many machine learning and data mining algorithms rely on the assumption that
the training and testing data share the same feature space and distribution.
However, this assumption may not always hold. For instance, there are
situations where we need to classify data in one domain, but we only have
sufficient training data available from a different domain. The latter data may
follow a distinct distribution. In such cases, successfully transferring
knowledge across domains can significantly improve learning performance and
reduce the need for extensive data labeling efforts. Transfer learning (TL) has
thus emerged as a promising framework to tackle this challenge, particularly in
security-related tasks. This paper aims to review the current advancements in
utilizing TL techniques for security. The paper includes a discussion of the
existing research gaps in applying TL in the security domain, as well as
exploring potential future research directions and issues that arise in the
context of TL-assisted security solutions.
- Abstract(参考訳): 多くの機械学習とデータマイニングアルゴリズムは、トレーニングとテストのデータが同じ特徴空間と分散を共有するという仮定に依存している。
しかし、この仮定は常に成り立つとは限らない。
例えば、ひとつのドメインでデータを分類する必要がある状況がありますが、異なるドメインから利用可能な十分なトレーニングデータしかありません。
後者のデータは異なる分布に従うことができる。
このような場合、ドメイン間での知識の伝達に成功すれば、学習性能が大幅に向上し、広範なデータラベリング作業の必要性が軽減される。
転送学習(tl)は、特にセキュリティ関連のタスクにおいて、この課題に取り組むための有望なフレームワークとして登場してきた。
本稿では,TL技術を活用したセキュリティの最近の進歩を概観する。
この論文は、tlをセキュリティドメインに適用する際の既存の研究のギャップに関する議論と、tl支援セキュリティソリューションの文脈で生じる将来的な研究の方向性と課題について述べている。
関連論文リスト
- A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual Learning [58.107474025048866]
蓄積とは、以前に獲得した知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - Deep Transfer Learning for Automatic Speech Recognition: Towards Better
Generalization [3.6393183544320236]
深層学習(DL)における音声認識の課題
大規模なトレーニングデータセットと高い計算とストレージリソースが必要です。
ディープトランスファーラーニング(DTL)はこれらの問題を克服するために導入された。
論文 参考訳(メタデータ) (2023-04-27T21:08:05Z) - Deep Unsupervised Domain Adaptation: A Review of Recent Advances and
Perspectives [16.68091981866261]
対象領域のデータの性能低下に対応するために、教師なし領域適応(UDA)を提案する。
UDAは、自然言語処理、ビデオ解析、自然言語処理、時系列データ分析、医用画像解析など、有望な成果を上げている。
論文 参考訳(メタデータ) (2022-08-15T20:05:07Z) - Towards Federated Long-Tailed Learning [76.50892783088702]
データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、標準である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
本稿では,プライバシ保護フェデレーション学習(FL)フレームワークのコンテキスト下での長期的データ分散(LT)学習に焦点を当てた。
論文 参考訳(メタデータ) (2022-06-30T02:34:22Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Quantum Heterogeneous Distributed Deep Learning Architectures: Models,
Discussions, and Applications [13.241451755566365]
量子深層学習(QDL)と分散深層学習(DDL)は、既存の深層学習を補完するために出現している。
QDLは、ローカルデバイスやサーバ上のディープラーニング計算を量子ディープラーニングに置き換えることで、計算上の利益を得る。
サーバとクライアント間の量子セキュアな通信プロトコルを使用することで、データセキュリティを向上させることができる。
論文 参考訳(メタデータ) (2022-02-19T12:59:11Z) - Transfer Learning for Aided Target Recognition: Comparing Deep Learning
to other Machine Learning Approaches [0.0]
AiTR(Aided target recognition)は、産業や防衛分野のアプリケーションにおいて重要な問題である。
ディープラーニング(DL)は、最近の現実世界の問題に対して、例外的なモデリングの柔軟性と精度を提供する。
私たちのゴールは、DLフレームワーク内の転送学習と、転送タスクとデータセットをまたいだ他のMLアプローチを比較することで、この欠点に対処することにあります。
論文 参考訳(メタデータ) (2020-11-25T14:25:49Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - A survey on domain adaptation theory: learning bounds and theoretical
guarantees [17.71634393160982]
この調査の主な目的は、特定の、そして間違いなく最も人気のある、移動学習のサブフィールドにおける最先端の理論的結果の概要を提供することである。
このサブフィールドでは、学習タスクは同じままで、トレーニングとテストデータの間でデータ分布が変化すると仮定される。
本稿では、ドメイン適応問題に関連する既存の結果の最新の記述について述べる。
論文 参考訳(メタデータ) (2020-04-24T16:11:03Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z) - Continuous Domain Adaptation with Variational Domain-Agnostic Feature
Replay [78.7472257594881]
非定常環境での学習は、機械学習における最大の課題の1つだ。
非定常性はタスクドリフトまたはドメインドリフトによって引き起こされる。
本稿では,3つのコンポーネントから構成されるアプローチである変分ドメインに依存しない特徴リプレイを提案する。
論文 参考訳(メタデータ) (2020-03-09T19:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。