論文の概要: Figuratively Speaking: Authorship Attribution via Multi-Task Figurative Language Modeling
- arxiv url: http://arxiv.org/abs/2406.08218v1
- Date: Wed, 12 Jun 2024 13:49:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 16:46:00.379450
- Title: Figuratively Speaking: Authorship Attribution via Multi-Task Figurative Language Modeling
- Title(参考訳): フィギュラティブな言葉:マルチタスク・フィギュラティブ言語モデリングによるオーサリングの属性
- Authors: Gregorios A Katsios, Ning Sa, Tomek Strzalkowski,
- Abstract要約: テキスト中の複数のFL特徴を同時に検出するマルチタスク言語モデル(MFLM)を提案する。
我々は、複数のテストセットにわたる詳細な評価を通して、FL検出において、我々のモデルは、等しく、または、より優れた特別なバイナリモデルを実行する傾向があることを実証する。
- 参考スコア(独自算出の注目度): 1.6385815610837167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The identification of Figurative Language (FL) features in text is crucial for various Natural Language Processing (NLP) tasks, where understanding of the author's intended meaning and its nuances is key for successful communication. At the same time, the use of a specific blend of various FL forms most accurately reflects a writer's style, rather than the use of any single construct, such as just metaphors or irony. Thus, we postulate that FL features could play an important role in Authorship Attribution (AA) tasks. We believe that our is the first computational study of AA based on FL use. Accordingly, we propose a Multi-task Figurative Language Model (MFLM) that learns to detect multiple FL features in text at once. We demonstrate, through detailed evaluation across multiple test sets, that the our model tends to perform equally or outperform specialized binary models in FL detection. Subsequently, we evaluate the predictive capability of joint FL features towards the AA task on three datasets, observing improved AA performance through the integration of MFLM embeddings.
- Abstract(参考訳): 自然言語処理(NLP)タスクにおいて,テキスト中の言語機能(FL)の識別は重要であり,著者の意図する意味やニュアンスを理解することがコミュニケーションの成功の鍵となる。
同時に、様々なFLの特定のブレンドの使用は、単なる比喩や皮肉のような単一の構成物の使用よりも、作家のスタイルを最も正確に反映している。
したがって、FL機能はオーサリング属性(AA)タスクにおいて重要な役割を果たす可能性があると仮定する。
FL利用に基づくAAの計算研究は,本研究が初めてであると考えている。
そこで本研究では,テキスト中の複数のFL特徴を同時に検出するマルチタスク表現言語モデル(MFLM)を提案する。
我々は、複数のテストセットにわたる詳細な評価を通して、FL検出において、我々のモデルは、等しく、または、より優れた特別なバイナリモデルを実行する傾向があることを実証する。
次に,3つのデータセット上でのAAタスクに対する関節FL特徴の予測能力を評価し,MFLM埋め込みの統合により改善されたAA性能を観察した。
関連論文リスト
- Interplay between Federated Learning and Explainable Artificial Intelligence: a Scoping Review [1.6252563723817934]
フェデレートラーニング(FL)と説明可能な人工知能(XAI)の併用により、分散データからモデルのトレーニングが可能になる。
このスコーピングレビューは、FLとXAIを共同で扱う出版物をマッピングする。
37の研究が我々の基準を満たし、解釈可能性よりも説明法に焦点をあてた論文が多かった。
論文 参考訳(メタデータ) (2024-11-07T22:44:35Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - EMMA: Efficient Visual Alignment in Multi-Modal LLMs [56.03417732498859]
EMMAは、視覚的およびテキスト的エンコーディングを効率的に融合するために設計された軽量なクロスプラットフォームモジュールである。
EMMAは複数のタスクのパフォーマンスを最大9.3%向上させ、幻覚に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-02T23:00:31Z) - On Pre-training of Multimodal Language Models Customized for Chart Understanding [83.99377088129282]
本稿では,MLLMのチャート理解を改善するために必要な学習過程について考察する。
詳細なチャート理解に適したMLLMであるCHOPINLLMを紹介する。
論文 参考訳(メタデータ) (2024-07-19T17:58:36Z) - Improving Visual Commonsense in Language Models via Multiple Image Generation [41.565399860320966]
既存の大規模言語モデル(LLM)は、主にテキストデータのみを使用して訓練されている。
視覚言語モデルは視覚的に指向するタスクに優れており、基本的なコモンセンス推論のような視覚的でないタスクでは失敗することが多い。
この分散は、基本的なテキストベースの言語推論と堅牢な視覚的理解の統合という、重要な課題を浮き彫りにする。
論文 参考訳(メタデータ) (2024-06-19T15:17:10Z) - Limits of Transformer Language Models on Learning to Compose Algorithms [77.2443883991608]
我々は,LLaMAモデルのトレーニングと,複数の個別サブタスクの合成学習を必要とする4つのタスクにおけるGPT-4とGeminiの促進について検討した。
その結果,現在最先端のTransformer言語モデルにおける構成学習は,非常に非効率なサンプルであることが示唆された。
論文 参考訳(メタデータ) (2024-02-08T16:23:29Z) - APoLLo: Unified Adapter and Prompt Learning for Vision Language Models [58.9772868980283]
本稿では,視覚言語モデルに対する適応学習とプロンプト学習を組み合わせた統合マルチモーダルアプローチであるAPoLLoを提案する。
APoLLoは10種類の画像認識データセットに対して、MaPLe(SOTA)よりも6.03%向上している。
論文 参考訳(メタデータ) (2023-12-04T01:42:09Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Pretrained Models for Multilingual Federated Learning [38.19507070702635]
我々は,多言語テキストがフェデレートラーニング(FL)アルゴリズムに与える影響について検討する。
3つの多言語言語タスク、言語モデリング、機械翻訳、テキスト分類について検討する。
以上の結果から,事前学習モデルを用いることでFLの負の効果を低減し,集中学習(プライバシなし)よりも高い性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-06-06T00:20:30Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - A Robust Deep Ensemble Classifier for Figurative Language Detection [1.3124513975412255]
自然言語処理(NLP)の幅広い分野における感性分析のオープンな問題である言語認識(FL)
本論文では,高度なDeep Learning (DL) 技術に対処する,皮肉,皮肉,メタファの3つの相互関連FL認識タスクについて述べる。
Deep Soft Ensemble (DESC) モデルは、FL認識の挑戦的な分野において、関連する方法論や最先端技術と比較すると、非常に優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-09T11:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。