論文の概要: (Not) Understanding Latin Poetic Style with Deep Learning
- arxiv url: http://arxiv.org/abs/2404.06150v1
- Date: Tue, 9 Apr 2024 09:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 15:19:37.093889
- Title: (Not) Understanding Latin Poetic Style with Deep Learning
- Title(参考訳): (Not)深層学習によるラテン詩の文体理解
- Authors: Ben Nagy,
- Abstract要約: この記事では、様々なニューラルネットワークの注意点を調べることによって、著者のスタイルを理解するのに失敗した試みを要約する。
そのため、著者のスタイルの違いについて、伝統的な読者に何か教えることが期待されている。
残念ながら、彼らの推論は精査できない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article summarizes some mostly unsuccessful attempts to understand authorial style by examining the attention of various neural networks (LSTMs and CNNs) trained on a corpus of classical Latin verse that has been encoded to include sonic and metrical features. Carefully configured neural networks are shown to be extremely strong authorship classifiers, so it is hoped that they might therefore teach `traditional' readers something about how the authors differ in style. Sadly their reasoning is, so far, inscrutable. While the overall goal has not yet been reached, this work reports some useful findings in terms of effective ways to encode and embed verse, the relative strengths and weaknesses of the neural network families, and useful (and not so useful) techniques for designing and inspecting NN models in this domain. This article suggests that, for poetry, CNNs are better choices than LSTMs -- they train more quickly, have equivalent accuracy, and (potentially) offer better interpretability. Based on a great deal of experimentation, it also suggests that simple, trainable embeddings are more effective than domain-specific schemes, and stresses the importance of techniques to reduce overfitting, like dropout and batch normalization.
- Abstract(参考訳): 本稿では、古典ラテン詩のコーパスで訓練された様々なニューラルネットワーク(LSTM、CNN)の注意を、音韻的特徴とメートル法的特徴を含むように符号化することで、著者のスタイルを理解する試みがほとんど失敗していることを要約する。
慎重に構成されたニューラルネットワークは、非常に強力な著者分類器であることが示されており、それゆえ、著者のスタイルの違いについて「伝統的な」読者に何かを教えることが期待されている。
残念ながら、彼らの推論は精査できない。
全体的な目標はまだ達成されていないが、この研究は、詩をエンコードして埋め込む効果的な方法、ニューラルネットワークファミリーの相対的な長所と短所、ドメイン内のNNモデルを設計し、検査するのに有用な(あまり役に立たない)テクニックについて、いくつかの有用な発見を報告している。
この記事では、詩において、CNNはLSTMよりも優れた選択である、と提案する。
多数の実験に基づいて、シンプルなトレーニング可能な埋め込みはドメイン固有のスキームよりも効果的であり、ドロップアウトやバッチ正規化といったオーバーフィッティングを減らす技術の重要性を強調している。
関連論文リスト
- Spiking Convolutional Neural Networks for Text Classification [15.10637945787922]
スパイキングニューラルネットワーク(SNN)は、よりエネルギー効率の良い方法でディープニューラルネットワーク(DNN)を実装するための有望な経路を提供する。
本研究では、テキスト分類のためのSNNの「変換+微調整」2段階法を提案し、事前学習した単語埋め込みをスパイクトレインとしてエンコードする簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-06-27T14:54:27Z) - Ten Lessons We Have Learned in the New "Sparseland": A Short Handbook
for Sparse Neural Network Researchers [100.66539004105805]
この記事は、SNN(Sparse Neural Network)研究コミュニティがますます繁栄する中で、"共通善(common good)"を提供することを目的としている。
SNNの10のQ&Aは、密度対スパース、非構造化スパース対構造スパース、プルーニング対スパーストレーニング、密度対スパーストレーニング、静的なスパースネス対動的スパースネス、事前トレーニング/デューストレーニングと後トレーニングのスパースネスを含む、多くの重要な側面から要約する。
論文 参考訳(メタデータ) (2023-02-06T07:07:15Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - On the Compression of Natural Language Models [0.0]
我々は、量子化、知識蒸留、プルーニングといった最先端の圧縮技術についてレビューする。
本研究の目的は、自然言語モデル(NLM)にそのような訓練可能なサブネットワークが存在するかどうかを評価することである。
論文 参考訳(メタデータ) (2021-12-13T08:14:21Z) - A Novel Deep Learning Method for Textual Sentiment Analysis [3.0711362702464675]
本稿では,階層的注意層を統合した畳み込みニューラルネットワークを提案する。
提案モデルでは,分類精度が高く,情報的単語を抽出できる。
インクリメンタル転送学習を適用すると、分類性能が大幅に向上します。
論文 参考訳(メタデータ) (2021-02-23T12:11:36Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - A Practical Tutorial on Graph Neural Networks [49.919443059032226]
グラフニューラルネットワーク(GNN)は、人工知能(AI)分野において最近人気が高まっている。
このチュートリアルでは、GNNのパワーとノベルティをAI実践者に公開している。
論文 参考訳(メタデータ) (2020-10-11T12:36:17Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - CrowdTSC: Crowd-based Neural Networks for Text Sentiment Classification [26.75362694599748]
我々は、テキスト知覚分類(CrowdTSC)のためのクラウドベースニューラルネットワークを提案する。
質問をクラウドソーシングプラットフォームにデザインし、テキストでキーワードを収集します。
本稿では,注目に基づくニューラルネットワークと,収集したキーワードを人間のガイダンスとして組み込んだハイブリッドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T14:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。