論文の概要: MAMI: Multi-Attentional Mutual-Information for Long Sequence Neuron
Captioning
- arxiv url: http://arxiv.org/abs/2401.02744v1
- Date: Fri, 5 Jan 2024 10:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 15:17:20.081417
- Title: MAMI: Multi-Attentional Mutual-Information for Long Sequence Neuron
Captioning
- Title(参考訳): MAMI:長周期ニューロンキャプションのためのマルチアテンショナル・ミューチュアル・インフォーム
- Authors: Alfirsa Damasyifa Fauzulhaq, Wahyu Parwitayasa, Joseph Ananda
Sugihdharma, M. Fadli Ridhani, Novanto Yudistira
- Abstract要約: ニューロンラベリング(英: Neuron labeling)は、あるニューロンの振る舞いを可視化し、あるパターンに反応してニューロンを活性化するアプローチである。
以前の研究、すなわちMILANは、エンコーダのShow、 Attend、Tell(SAT)モデルを使用してニューロンの振る舞いを可視化し、デコーダにBahdanauが注目されたLSTMを追加した。
本研究では,異なる種類の注意機構を活用することでMILANの性能をさらに向上し,さらにいくつかの注意結果を付加したいと考えている。
- 参考スコア(独自算出の注目度): 1.7243216387069678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuron labeling is an approach to visualize the behaviour and respond of a
certain neuron to a certain pattern that activates the neuron. Neuron labeling
extract information about the features captured by certain neurons in a deep
neural network, one of which uses the encoder-decoder image captioning
approach. The encoder used can be a pretrained CNN-based model and the decoder
is an RNN-based model for text generation. Previous work, namely MILAN (Mutual
Information-guided Linguistic Annotation of Neuron), has tried to visualize the
neuron behaviour using modified Show, Attend, and Tell (SAT) model in the
encoder, and LSTM added with Bahdanau attention in the decoder. MILAN can show
great result on short sequence neuron captioning, but it does not show great
result on long sequence neuron captioning, so in this work, we would like to
improve the performance of MILAN even more by utilizing different kind of
attention mechanism and additionally adding several attention result into one,
in order to combine all the advantages from several attention mechanism. Using
our compound dataset, we obtained higher BLEU and F1-Score on our proposed
model, achieving 17.742 and 0.4811 respectively. At some point where the model
converges at the peak, our model obtained BLEU of 21.2262 and BERTScore
F1-Score of 0.4870.
- Abstract(参考訳): ニューロンラベリング(neural labeling)は、あるニューロンの行動を可視化し、ニューロンを活性化する特定のパターンに応答するアプローチである。
ニューロンラベリングは、エンコーダ-デコーダ画像キャプションアプローチを使用するディープニューラルネットワークにおいて、特定のニューロンがキャプチャした特徴に関する情報を抽出する。
使用するエンコーダは事前訓練されたCNNベースのモデルであり、デコーダはテキスト生成のためのRNNベースのモデルである。
以前の研究、すなわちミラノ (mutual information-guided language annotation of neuron) は、エンコーダの修正されたshow, attend, tell (sat)モデルを用いてニューロンの挙動を可視化しようと試み、lstmはバーダナウの注意をデコーダに加えた。
短周期ニューロンキャプションではMILANは大きな効果を示すが,長周期ニューロンキャプションでは大きな効果は得られないため,本研究では,異なる種類の注意機構を利用してMILANの性能をさらに向上させ,また,複数の注意機構から得られるすべての利点を組み合わさるために,いくつかの注意結果を加えることで,MILANの性能をさらに向上したい。
複合データセットを用いて,提案モデルのbleuとf1-scoreをそれぞれ17.742と0.4811とした。
モデルがピークに収束するある時点で、我々のモデルはBLEU 21.2262 と BERTScore F1-Score 0.4870 を得た。
関連論文リスト
- When Spiking neural networks meet temporal attention image decoding and adaptive spiking neuron [7.478056407323783]
スパイキングニューラルネットワーク(SNN)は、生物学的に妥当な方法で時間情報をエンコードし、処理することができる。
本稿では,時間的注意(TAID)に基づく画像復号法と適応型Leaky-Integrate-and-Fireニューロンモデルを提案する。
論文 参考訳(メタデータ) (2024-06-05T08:21:55Z) - Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - WaLiN-GUI: a graphical and auditory tool for neuron-based encoding [73.88751967207419]
ニューロモルフィックコンピューティングはスパイクベースのエネルギー効率の高い通信に依存している。
本研究では, スパイクトレインへのサンプルベースデータの符号化に適した構成を同定するツールを開発した。
WaLiN-GUIはオープンソースとドキュメントが提供されている。
論文 参考訳(メタデータ) (2023-10-25T20:34:08Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Neuron to Graph: Interpreting Language Model Neurons at Scale [8.32093320910416]
本稿では,大規模言語モデル内の多数のニューロンにまたがる解釈可能性手法のスケールアップを目的とした,新しい自動化手法を提案する。
我々は、トレーニングしたデータセットからニューロンの振る舞いを自動的に抽出し、解釈可能なグラフに変換する革新的なツールであるNeuron to Graph(N2G)を提案する。
論文 参考訳(メタデータ) (2023-05-31T14:44:33Z) - Natural Language Descriptions of Deep Visual Features [50.270035018478666]
オープンエンド,コンポジション,自然言語による記述で自動的にニューロンをラベル付けする手法を提案する。
我々はMILANを用いて、視覚モデルにおける属性、カテゴリ、関係情報を選択的に選択したニューロンの分布と重要性を特徴付ける。
また、これらの特徴を曖昧にすることを目的としたデータセットでトレーニングされたモデルにおいて、人種や性別といった保護されたカテゴリに敏感な、監査用のMILANも使用しています。
論文 参考訳(メタデータ) (2022-01-26T18:48:02Z) - Efficient Neuromorphic Signal Processing with Loihi 2 [6.32784133039548]
本稿では, 短時間フーリエ変換(STFT)を従来のSTFTの47倍の出力帯域幅で計算する方法を示す。
また、音声分類タスクのためのRFニューロンのトレーニングのためのバックプロパゲーションを用いた有望な予備結果を示す。
論文 参考訳(メタデータ) (2021-11-05T22:37:05Z) - Introducing the Hidden Neural Markov Chain framework [7.85426761612795]
本稿では,ニューラルモデルの新しいファミリーであるHNMC(Hidden Neural Markov Chain)フレームワークを提案する。
クラシックなHNMC、HNMC2、HNMC-CNの3つのモデルを提案します。
この新しいニューラルネットワークシーケンシャルフレームワークの可能性を示すもので、新しいモデルへの道を開き、最終的には一般的なBiLSTMやBiGRUと競合する可能性がある。
論文 参考訳(メタデータ) (2021-02-17T20:13:45Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。