論文の概要: KAConvText: Novel Approach to Burmese Sentence Classification using Kolmogorov-Arnold Convolution
- arxiv url: http://arxiv.org/abs/2507.06753v1
- Date: Wed, 09 Jul 2025 11:25:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.563678
- Title: KAConvText: Novel Approach to Burmese Sentence Classification using Kolmogorov-Arnold Convolution
- Title(参考訳): KAConvText: Kolmogorov-Arnold畳み込みを用いたビルマ文分類の新しいアプローチ
- Authors: Ye Kyaw Thu, Thura Aung, Thazin Myint Oo, Thepchai Supnithi,
- Abstract要約: 本稿では,Kolmogorov-Arnold Convolution for Text(KAConvText)の文分類への応用について述べる。
静的な設定と微調整された設定の両方において、ランダムと高速テキストの埋め込みを比較して、様々な埋め込み構成について検討する。
その結果、KAConvText-MLPは、ヘイトスピーチ検出に9123%の精度(F1-score = 0.9109)、ニュース分類に92.66%の精度(F1-score = 0.9267)、言語識別に99.82%の精度(F1-score = 0.9982)を達成した。
- 参考スコア(独自算出の注目度): 0.16874375111244325
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents the first application of Kolmogorov-Arnold Convolution for Text (KAConvText) in sentence classification, addressing three tasks: imbalanced binary hate speech detection, balanced multiclass news classification, and imbalanced multiclass ethnic language identification. We investigate various embedding configurations, comparing random to fastText embeddings in both static and fine-tuned settings, with embedding dimensions of 100 and 300 using CBOW and Skip-gram models. Baselines include standard CNNs and CNNs augmented with a Kolmogorov-Arnold Network (CNN-KAN). In addition, we investigated KAConvText with different classification heads - MLP and KAN, where using KAN head supports enhanced interpretability. Results show that KAConvText-MLP with fine-tuned fastText embeddings achieves the best performance of 91.23% accuracy (F1-score = 0.9109) for hate speech detection, 92.66% accuracy (F1-score = 0.9267) for news classification, and 99.82% accuracy (F1-score = 0.9982) for language identification.
- Abstract(参考訳): 本稿では,テキスト分類におけるKolmogorov-Arnold Convolution for Text(KAConvText)の初回適用について述べる。
本研究では, CBOWモデルとSkip-gramモデルを用いて, 静的および微調整の双方でランダムと高速テキストの埋め込みを100, 300の埋め込み次元で比較し, 各種埋め込み構成について検討する。
ベースラインには標準のCNNとCNNがコルモゴロフ・アルノルドネットワーク(CNN-KAN)で拡張されている。
また,KAConvText を MLP と Kan の異なる分類頭を用いて検討した。
その結果, 高速テキスト埋め込みを用いたKAConvText-MLPは, ヘイトスピーチ検出において91.23%の精度 (F1-score = 0.9109) , ニュース分類では92.66%の精度 (F1-score = 0.9267) , 言語識別では99.82%の精度 (F1-score = 0.9982) を達成できた。
関連論文リスト
- Idiom Detection in Sorani Kurdish Texts [1.174020933567308]
本研究は,Sorani Kurdishにおける深層学習技術を用いたテキスト分類タスクとしてアプローチすることで,検出に対処する。
我々は、KuBERTベースのトランスフォーマーシーケンス分類、RCNN(Recurrent Convolutional Neural Network)、注意機構を備えたBiLSTMモデルという3つのディープラーニングモデルを開発し、評価した。
評価の結果,変圧器モデルである細調整BERTが他のモデルより一貫して優れており,精度は99%近くであった。
論文 参考訳(メタデータ) (2025-01-24T14:31:30Z) - Towards Realistic Zero-Shot Classification via Self Structural Semantic
Alignment [53.2701026843921]
大規模事前訓練型視覚言語モデル(VLM)はゼロショット分類に有効であることが証明されている。
本稿では,アノテーションではなく,より広い語彙を前提とした,より難易度の高いゼロショット分類(Realistic Zero-Shot Classification)を提案する。
本稿では,ラベルのないデータから構造意味情報を抽出し,同時に自己学習を行う自己構造意味アライメント(S3A)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-24T17:56:46Z) - CTC-based Non-autoregressive Speech Translation [51.37920141751813]
非自己回帰音声翻訳における接続性時間分類の可能性について検討する。
我々は、CTCによって誘導される2つのエンコーダからなるモデルを構築し、ソースおよびターゲットテキストを予測する。
MuST-Cベンチマークの実験では、我々のNASTモデルは平均BLEUスコアが29.5であり、スピードアップは5.67$times$である。
論文 参考訳(メタデータ) (2023-05-27T03:54:09Z) - Like a Good Nearest Neighbor: Practical Content Moderation and Text
Classification [66.02091763340094]
LaGoNN(Good Nearest Neighbor)は、学習可能なパラメータを導入することなく、隣人の情報で入力テキストを変更するSetFitの変更である。
LaGoNNは望ましくないコンテンツやテキスト分類のフラグ付けに有効であり、SetFitのパフォーマンスを改善する。
論文 参考訳(メタデータ) (2023-02-17T15:43:29Z) - Speaker Embedding-aware Neural Diarization: a Novel Framework for
Overlapped Speech Diarization in the Meeting Scenario [51.5031673695118]
重なり合う音声のダイアリゼーションを単一ラベル予測問題として再構成する。
話者埋め込み認識型ニューラルダイアリゼーション(SEND)システムを提案する。
論文 参考訳(メタデータ) (2022-03-18T06:40:39Z) - HuBERT: Self-Supervised Speech Representation Learning by Masked
Prediction of Hidden Units [81.53783563025084]
本稿では、BERTのような予測損失に対して、アライメントされたターゲットラベルを提供するオフラインクラスタリングステップを提案する。
提案手法の重要な要素は,マスク領域にのみ予測損失を適用することである。
HuBERTは、より困難なdev-otherおよびtest-other評価サブセットに対して、最大19%と13%の相対的なWER削減を示す。
論文 参考訳(メタデータ) (2021-06-14T14:14:28Z) - Graph Convolutional Network for Swahili News Classification [78.6363825307044]
この研究は、半教師付きスワヒリニュース分類のタスクにおいて、テキストグラフ畳み込みネットワーク(Text GCN)が従来の自然言語処理ベンチマークより優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-03-16T21:03:47Z) - An Attention Ensemble Approach for Efficient Text Classification of
Indian Languages [0.0]
本稿では,インド・デヴァナガリ文字を母語とするマラーティー語における短文文書の細かな技術領域識別について述べる。
畳み込みニューラルネットワークが生成する中間文表現と双方向の長期記憶とを合体させ,効率的なテキスト分類を実現するcnn-bilstm注意アンサンブルモデルを提案する。
実験結果から,提案モデルが与えられたタスクにおける各種ベースライン機械学習および深層学習モデルより優れ,89.57%,f1スコア0.8875の検証精度が得られた。
論文 参考訳(メタデータ) (2021-02-20T07:31:38Z) - Attention-based Fully Gated CNN-BGRU for Russian Handwritten Text [0.5371337604556311]
本研究は、カザフ語とロシア語で訓練されたアテンションエンコーダ・デコーダネットワークを用いた手書きテキストのタスクにアプローチする。
我々は,複数の双方向GRUと注意機構をサポートした,完全ゲートCNNに基づく新しいディープニューラルネットワークモデルを開発した。
我々の研究は、HKRデータセットに関する最初の研究であり、既存のほとんどのモデルに最先端の結果を示す。
論文 参考訳(メタデータ) (2020-08-12T15:14:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。