論文の概要: kdehumor at semeval-2020 task 7: a neural network model for detecting
funniness in dataset humicroedit
- arxiv url: http://arxiv.org/abs/2105.05135v1
- Date: Tue, 11 May 2021 15:44:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 17:33:57.181830
- Title: kdehumor at semeval-2020 task 7: a neural network model for detecting
funniness in dataset humicroedit
- Title(参考訳): kdehumor at semeval-2020 task 7: a neural network model for funniness in dataset humicroedit
- Authors: Rida Miraj, Masaki Aono
- Abstract要約: Team KdeHumorは、Bi-Directional LSTMs(BiLSTMs)を含む、リカレントニューラルネットワークモデルを採用する
提案手法の性能を解析し,アーキテクチャの各コンポーネントの貢献を実証する。
- 参考スコア(独自算出の注目度): 3.612189440297043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes our contribution to SemEval-2020 Task 7: Assessing Humor
in Edited News Headlines. Here we present a method based on a deep neural
network. In recent years, quite some attention has been devoted to humor
production and perception. Our team KdeHumor employs recurrent neural network
models including Bi-Directional LSTMs (BiLSTMs). Moreover, we utilize the
state-of-the-art pre-trained sentence embedding techniques. We analyze the
performance of our method and demonstrate the contribution of each component of
our architecture.
- Abstract(参考訳): 本稿では,SemEval-2020 Task 7: Assessing Humor in Edited News Headlinesについて述べる。
本稿では,ディープニューラルネットワークに基づく手法を提案する。
近年ではユーモアの制作や知覚に注目が集まっている。
私たちのチームは、Bi-Directional LSTMs(BiLSTMs)など、リカレントニューラルネットワークモデルを採用しています。
さらに、最先端の事前訓練文埋め込み技術を利用する。
提案手法の性能を解析し,アーキテクチャの各コンポーネントの貢献を実証する。
関連論文リスト
- Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Sparse Multitask Learning for Efficient Neural Representation of Motor
Imagery and Execution [30.186917337606477]
運動画像(MI)と運動実行(ME)タスクのためのスパースマルチタスク学習フレームワークを提案する。
MI-ME分類のためのデュアルタスクCNNモデルが与えられた場合、過渡的な接続に対して、サリエンシに基づくスペーシフィケーションアプローチを適用する。
以上の結果から, この調整された疎水性は, 過度に適合する問題を緩和し, 少ないデータ量でテスト性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T09:06:16Z) - Bio-realistic Neural Network Implementation on Loihi 2 with Izhikevich
Neurons [0.10499611180329801]
我々は,バイオリアリスティックな基底神経節ニューラルネットワークとそのIntelのLoihiニューロモルフィックプロセッサへの統合による,単純なGo/No-Goタスクの実行について紹介した。
We used Izhikevich neuron model, implemented as microcode, instead to Leaky-Integrate and Fire neuron model that built-in support on Loihi。
論文 参考訳(メタデータ) (2023-07-21T18:28:17Z) - Learning Personal Representations from fMRIby Predicting Neurofeedback
Performance [52.77024349608834]
機能的MRI(fMRI)によって導かれる自己神経変調タスクを行う個人のための個人表現を学習するためのディープニューラルネットワーク手法を提案する。
この表現は、直近のfMRIフレームが与えられた次のfMRIフレームにおける扁桃体活動を予測する自己教師型リカレントニューラルネットワークによって学習され、学習された個々の表現に条件付けされる。
論文 参考訳(メタデータ) (2021-12-06T10:16:54Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - JokeMeter at SemEval-2020 Task 7: Convolutional humor [6.853018135783218]
本稿では,SemEval-2020 Task 7におけるHummor評価のためのシステムについて述べる。
このシステムは畳み込みニューラルネットワークアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2020-08-25T14:27:58Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Synaptic Metaplasticity in Binarized Neural Networks [4.243926243206826]
ディープニューラルネットワークは、新しいタスクをトレーニングする際に破滅的なことを忘れがちだ。
本研究では,マルチタスクとストリーム学習の状況において,これまで提示したデータを必要としない破滅的な忘れを軽減させる訓練手法を提案する。
この研究は計算神経科学とディープラーニングを橋渡しし、将来の組み込みおよびニューロモルフィックシステムのための重要な資産を提示する。
論文 参考訳(メタデータ) (2020-03-07T08:09:34Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。