論文の概要: An Efficient Classification Model for Cyber Text
- arxiv url: http://arxiv.org/abs/2511.03107v1
- Date: Wed, 05 Nov 2025 01:21:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.289924
- Title: An Efficient Classification Model for Cyber Text
- Title(参考訳): サイバーテキストの効率的な分類モデル
- Authors: Md Sakhawat Hossen, Md. Zashid Iqbal Borshon, A. S. M. Badrudduza,
- Abstract要約: 本稿では,CTF-IDFと高速IRLBAアルゴリズムを用いたテキスト解析における古典的機械学習手法の有効性について論じる。
また,本論文では,従来の機械学習手法の時間的複雑性の低減とモデル精度の向上を図った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The uprising of deep learning methodology and practice in recent years has brought about a severe consequence of increasing carbon footprint due to the insatiable demand for computational resources and power. The field of text analytics also experienced a massive transformation in this trend of monopolizing methodology. In this paper, the original TF-IDF algorithm has been modified, and Clement Term Frequency-Inverse Document Frequency (CTF-IDF) has been proposed for data preprocessing. This paper primarily discusses the effectiveness of classical machine learning techniques in text analytics with CTF-IDF and a faster IRLBA algorithm for dimensionality reduction. The introduction of both of these techniques in the conventional text analytics pipeline ensures a more efficient, faster, and less computationally intensive application when compared with deep learning methodology regarding carbon footprint, with minor compromise in accuracy. The experimental results also exhibit a manifold of reduction in time complexity and improvement of model accuracy for the classical machine learning methods discussed further in this paper.
- Abstract(参考訳): 近年の深層学習の方法論と実践の蜂起は、計算資源と電力の需要の難しさから、炭素フットプリントの増加による深刻な結果をもたらしている。
テキスト分析の分野も、この独占手法のトレンドにおいて大きな変革を経験している。
本稿では,従来のTF-IDFアルゴリズムを改良し,データ前処理のためのClement Term Frequency-Inverse Document Frequency (CTF-IDF)を提案する。
本稿では,CTF-IDFと高速IRLBAアルゴリズムを用いたテキスト解析における古典的機械学習手法の有効性について論じる。
従来のテキスト分析パイプラインにこれら2つのテクニックを導入することで、炭素フットプリントに関するディープラーニング手法と比較して、より効率的で、より速く、より計算集約的なアプリケーションを実現することができる。
また,本論文では,従来の機械学習手法の時間的複雑性の低減とモデル精度の向上を図った。
関連論文リスト
- Small Ensemble-based Data Assimilation: A Machine Learning-Enhanced Data Assimilation Method with Limited Ensemble Size [6.387130323680299]
従来のアンサンブルカルマンフィルタ(EnKF)と完全連結ニューラルネットワーク(FCNN)を組み合わせた,機械学習に基づく新しいデータ同化手法を提案する。
本稿では,ロレンツ・システムと非線形海洋波動場シミュレーションを用いた数値実験により,提案手法の性能評価を行った。
その結果,従来のEnKFのアンサンブルサイズよりも高い精度を実現し,計算コストの低減が図られた。
論文 参考訳(メタデータ) (2025-10-17T03:47:02Z) - Efficient Representations for High-Cardinality Categorical Variables in Machine Learning [0.0]
ハイカーディナリティのカテゴリ変数は、機械学習において重大な課題を生じさせる。
伝統的なワンホット符号化は、しばしば高次元のスパース特徴空間をもたらす。
本稿では,平均符号化,低ランク符号化,多項ロジスティック回帰符号化など,新しい符号化手法を提案する。
論文 参考訳(メタデータ) (2025-01-10T01:25:01Z) - Efficiency optimization of large-scale language models based on deep learning in natural language processing tasks [6.596361762662328]
大規模言語モデルの内部構造と操作機構を理論的に解析する。
我々は、適応最適化アルゴリズム(AdamWなど)、大規模並列計算技術、混合精度訓練戦略の寄与を評価した。
論文 参考訳(メタデータ) (2024-05-20T00:10:00Z) - Neural incomplete factorization: learning preconditioners for the conjugate gradient method [2.899792823251184]
我々は、効率的なプレコンディショナーの生成を加速するためのデータ駆動型アプローチを開発する。
一般的に手動のプリコンディショナーをグラフニューラルネットワークの出力に置き換える。
本手法は, 行列の不完全分解を発生させ, 神経不完全分解(NeuralIF)と呼ばれる。
論文 参考訳(メタデータ) (2023-05-25T11:45:46Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - An improved online learning algorithm for general fuzzy min-max neural
network [11.631815277762257]
本稿では,一般ファジィmin-maxニューラルネット(GFMM)のための現在のオンライン学習アルゴリズムの改良版を提案する。
提案手法では、重なり合うハイパーボックスの収縮過程は使用せず、エラー率を増大させる可能性が高い。
オンライン学習アルゴリズムでは,トレーニングサンプルの提示順序に対する感度を低減するために,簡単なアンサンブル法を提案する。
論文 参考訳(メタデータ) (2020-01-08T06:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。