論文の概要: Efficient Aspect Term Extraction using Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2601.06637v1
- Date: Sat, 10 Jan 2026 17:48:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.912729
- Title: Efficient Aspect Term Extraction using Spiking Neural Network
- Title(参考訳): スパイクニューラルネットワークを用いた効率的なアスペクト項抽出
- Authors: Abhishek Kumar Mishra, Arya Somasundaram, Anup Das, Nagarajan Kandasamy,
- Abstract要約: ATEは、感情分析の重要なサブタスクであるレビュー文のアスペクト項を識別する。
本稿では、スパイキングニューラルネットワーク(SNN)を用いたよりエネルギー効率の良い代替手法を提案する。
提案されたアーキテクチャであるSpikeateは、三次スパイクニューロンと擬似勾配で微調整された直接スパイク訓練を採用している。
- 参考スコア(独自算出の注目度): 3.552214768835968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aspect Term Extraction (ATE) identifies aspect terms in review sentences, a key subtask of sentiment analysis. While most existing approaches use energy-intensive deep neural networks (DNNs) for ATE as sequence labeling, this paper proposes a more energy-efficient alternative using Spiking Neural Networks (SNNs). Using sparse activations and event-driven inferences, SNNs capture temporal dependencies between words, making them suitable for ATE. The proposed architecture, SpikeATE, employs ternary spiking neurons and direct spike training fine-tuned with pseudo-gradients. Evaluated on four benchmark SemEval datasets, SpikeATE achieves performance comparable to state-of-the-art DNNs with significantly lower energy consumption. This highlights the use of SNNs as a practical and sustainable choice for ATE tasks.
- Abstract(参考訳): アスペクト項抽出(ATE)は、感情分析の重要なサブタスクであるレビュー文のアスペクト項を識別する。
既存のほとんどのアプローチでは、ATEをシーケンスラベリングとしてエネルギー集約型ディープニューラルネットワーク(DNN)を用いるが、本研究では、スパイキングニューラルネットワーク(SNN)を用いたよりエネルギー効率の良い代替案を提案する。
スパースアクティベーションとイベント駆動推論を使用して、SNNは単語間の時間的依存関係をキャプチャし、ATEに適している。
提案されたアーキテクチャであるSpikeateは、三次スパイクニューロンと擬似勾配で微調整された直接スパイク訓練を採用している。
SemEvalの4つのベンチマークデータセットから評価すると、SpikeATEは、エネルギー消費量が大幅に少ない最先端のDNNに匹敵するパフォーマンスを実現している。
これは、ATEタスクの実用的で持続可能な選択としてSNNを使うことを強調している。
関連論文リスト
- Synaptic Modulation using Interspike Intervals Increases Energy Efficiency of Spiking Neural Networks [1.4068367423909889]
我々は、Interspike Intervals (ISI) によって重みを変調した新しいシナプスモデルを提案する。
IMSNNの学習アルゴリズムは、この情報を利用して勾配を選択的に伝播する。
MNISTおよびFashionMNISTデータセットを用いて,高密度・畳み込み層を有するIMSNNの性能を分類精度およびスパイク数の観点から評価した。
論文 参考訳(メタデータ) (2024-08-06T05:15:57Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - Efficient and Effective Time-Series Forecasting with Spiking Neural Networks [47.371024581669516]
スパイキングニューラルネットワーク(SNN)は、時間データの複雑さを捉えるためのユニークな経路を提供する。
SNNを時系列予測に適用することは、効果的な時間的アライメントの難しさ、符号化プロセスの複雑さ、およびモデル選択のための標準化されたガイドラインの欠如により困難である。
本稿では,時間情報処理におけるスパイクニューロンの効率を活かした時系列予測タスクにおけるSNNのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:23:50Z) - Inherent Redundancy in Spiking Neural Networks [24.114844269113746]
スパイキングネットワーク(SNN)は、従来の人工ニューラルネットワークに代わる有望なエネルギー効率の代替手段である。
本研究では,SNNにおける固有冗長性に関する3つの重要な疑問に焦点をあてる。
本稿では,SNNの冗長性を活用するためのアドバンストアテンション(ASA)モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:58:25Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Spikemax: Spike-based Loss Methods for Classification [6.563774552767812]
Spiking Neural Networks(SNN)は、低消費電力エッジベースのコンピューティングのための有望な研究パラダイムである。
SNNのバックプロパゲーションにおける最近の研究は,SNNの実践的な訓練を可能にしている。
我々は、スパイクカウント測度から出力確率の解釈を定式化し、スパイクベースの負のログ類似度測度を導入する。
論文 参考訳(メタデータ) (2022-05-19T20:38:15Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。