論文の概要: Nostra Domina at EvaLatin 2024: Improving Latin Polarity Detection through Data Augmentation
- arxiv url: http://arxiv.org/abs/2404.07792v1
- Date: Thu, 11 Apr 2024 14:35:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 13:40:16.772072
- Title: Nostra Domina at EvaLatin 2024: Improving Latin Polarity Detection through Data Augmentation
- Title(参考訳): EvaLatin 2024のNostra Domina:データ拡張によるラテンポラリティ検出の改善
- Authors: Stephen Bothwell, Abigail Swenor, David Chiang,
- Abstract要約: 提案手法は,$k$-meansアルゴリズムを用いて提案する。
ニューラルネットワークにはさまざまなラテン大言語モデル(LLM)が採用されています。
- 参考スコア(独自算出の注目度): 11.613446814180843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes submissions from the team Nostra Domina to the EvaLatin 2024 shared task of emotion polarity detection. Given the low-resource environment of Latin and the complexity of sentiment in rhetorical genres like poetry, we augmented the available data through automatic polarity annotation. We present two methods for doing so on the basis of the $k$-means algorithm, and we employ a variety of Latin large language models (LLMs) in a neural architecture to better capture the underlying contextual sentiment representations. Our best approach achieved the second highest macro-averaged Macro-$F_1$ score on the shared task's test set.
- Abstract(参考訳): 本稿では,感情極性検出のタスクであるEvaLatin 2024に対するNostra Dominaチームからの投稿について述べる。
ラテン語の低リソース環境と詩のような修辞的なジャンルの感情の複雑さを考えると、我々は自動的な極性アノテーションを通じて利用可能なデータを拡張します。
我々は、$k$-meansアルゴリズムに基づく2つの手法を提案し、ニューラルネットワークにおいて様々なラテン大言語モデル(LLM)を用いて、基礎となる文脈的感情表現をよりよく捉える。
我々のベストアプローチは、共有タスクのテストセットで2番目に高いマクロ平均値F_1$スコアを達成した。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - TartuNLP at EvaLatin 2024: Emotion Polarity Detection [0.21485350418225246]
本稿では,EvaLatin 2024における感情極性検出のタスクを,TartuNLPチームに提出した。
本システムでは, 教師あり学習のためのトレーニングデータアノテート手法として, 1) オーガナイザが提供するレキシコンを用いて極性に基づくラベルを作成し, 2) GPT4でラベルを生成する。
この結果から,LLMによるアノテーションはラテン語のテキストに対して有望な結果を示すことがわかった。
論文 参考訳(メタデータ) (2024-05-02T10:28:52Z) - ÚFAL LatinPipe at EvaLatin 2024: Morphosyntactic Analysis of Latin [1.590106856568323]
我々は、Eva 2024 Dependency Parsingタスクの受賞申請である LatinPipe を提示する。
本システムでは, ベースと大型の事前学習型LMの微調整による結合が構成されている。
一般に公開されている7つのラテンコーパスからのサンプリングによって訓練される。
論文 参考訳(メタデータ) (2024-04-08T20:05:25Z) - Investigating Multilingual Coreference Resolution by Universal
Annotations [11.035051211351213]
本研究では,言語レベルでの真理データを調べることによって,コア推論について検討する。
我々は、SotAシステムが解決できない最も困難なケースのエラー解析を行う。
普遍的な形態素的アノテーションから特徴を抽出し,これらの特徴をベースラインシステムに統合し,その潜在的な利点を評価する。
論文 参考訳(メタデータ) (2023-10-26T18:50:04Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Mao-Zedong At SemEval-2023 Task 4: Label Represention Multi-Head
Attention Model With Contrastive Learning-Enhanced Nearest Neighbor Mechanism
For Multi-Label Text Classification [0.0]
SemEval 2023 Task 4citekiesel:2023は、引数のセットと、各引数に暗黙的に表現される20種類の人間の値を提供する。
特定のラベルとセマンティックコンポーネント間の接続を確立するためのマルチヘッドアテンション機構を提案する。
テストセットではF1スコアが0.533で,リーダボードでは4位にランクインした。
論文 参考訳(メタデータ) (2023-07-11T11:12:06Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Enabling Classifiers to Make Judgements Explicitly Aligned with Human
Values [73.82043713141142]
性差別/人種差別の検出や毒性検出などの多くのNLP分類タスクは、人間の値に基づいている。
本稿では,コマンド内で明示的に記述された人間の値に基づいて予測を行う,値整合型分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-14T09:10:49Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Exploiting Global Contextual Information for Document-level Named Entity
Recognition [46.99922251839363]
我々は、GCDoc(Global Context enhanced Document-level NER)と呼ばれるモデルを提案する。
単語レベルでは、文書グラフは単語間のより広範な依存関係をモデル化するために構築される。
文レベルでは、単一文を超えてより広い文脈を適切にモデル化するために、横断文モジュールを用いる。
我々のモデルは、CoNLL 2003データセットで92.22(BERTで93.40)、Ontonotes 5.0データセットで88.32(BERTで90.49)のスコアに達した。
論文 参考訳(メタデータ) (2021-06-02T01:52:07Z) - The Frankfurt Latin Lexicon: From Morphological Expansion and Word
Embeddings to SemioGraphs [97.8648124629697]
この記事は、古典的な機械学習と知的ポストコレクション、特に、基礎となる語彙資源のグラフ表現に基づく人間の解釈プロセスを含む、より包括的なレマティゼーションの理解を論じている。
論文 参考訳(メタデータ) (2020-05-21T17:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。