論文の概要: RuOpinionNE-2024: Extraction of Opinion Tuples from Russian News Texts
- arxiv url: http://arxiv.org/abs/2504.06947v1
- Date: Wed, 09 Apr 2025 14:54:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:06:43.429163
- Title: RuOpinionNE-2024: Extraction of Opinion Tuples from Russian News Texts
- Title(参考訳): RuOpinionNE-2024:ロシアのニューステキストからオピニオンタプルの抽出
- Authors: Natalia Loukachevitch, Natalia Tkachenko, Anna Lapanitsyna, Mikhail Tikhomirov, Nicolay Rusnachenko,
- Abstract要約: その任務は、ある文に対する意見を抽出することである。
意見は、感情保持者、その目標、表現と目標に対する感情から成り立っている。
テストセット上での最良の結果は、大きな言語モデルの微調整によって得られた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we introduce the Dialogue Evaluation shared task on extraction of structured opinions from Russian news texts. The task of the contest is to extract opinion tuples for a given sentence; the tuples are composed of a sentiment holder, its target, an expression and sentiment from the holder to the target. In total, the task received more than 100 submissions. The participants experimented mainly with large language models in zero-shot, few-shot and fine-tuning formats. The best result on the test set was obtained with fine-tuning of a large language model. We also compared 30 prompts and 11 open source language models with 3-32 billion parameters in the 1-shot and 10-shot settings and found the best models and prompts.
- Abstract(参考訳): 本稿では,ロシアのニューステキストから構造化された意見を抽出する対話評価共有タスクについて紹介する。
コンテストの課題は、所定の文に対する意見タプルを抽出することであり、タプルは、感情保持者、その対象、表現と感情を、保持者から対象へと抽出する。
合計で100件以上の応募があった。
参加者は主に、ゼロショット、少数ショット、微調整形式の大きな言語モデルで実験した。
テストセット上での最良の結果は、大きな言語モデルの微調整によって得られた。
また、30のプロンプトと11のオープンソース言語モデルと、332億のパラメータを1ショットと10ショットの設定で比較し、最良のモデルとプロンプトを見つけました。
関連論文リスト
- Findings of the Second BabyLM Challenge: Sample-Efficient Pretraining on Developmentally Plausible Corpora [79.03392191805028]
BabyLM Challengeは、人間と計算言語学習者のデータ効率ギャップを埋めるためのコミュニティの取り組みである。
参加者は1億ワード以下の固定言語データ予算で、言語モデルトレーニングを最適化するために競争する。
論文 参考訳(メタデータ) (2024-12-06T16:06:08Z) - HYBRINFOX at CheckThat! 2024 -- Task 1: Enhancing Language Models with Structured Information for Check-Worthiness Estimation [0.8083061106940517]
本稿では,2024年 - タスク1コンペティションのためのHYBRINFOXチームの実験と結果について要約する。
本稿では,RoBERTaのような言語モデルに三重項による埋め込みを組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T11:33:54Z) - ICDAR 2023 Competition on Structured Text Extraction from Visually-Rich
Document Images [198.35937007558078]
大会は2022年12月30日に開かれ、2023年3月24日に閉幕した。
トラック1には35人の参加者と91人の有効な応募があり、トラック2には15人の参加者と26人の応募がある。
提案手法の性能によると, 複雑なシナリオやゼロショットシナリオにおいて, 期待される情報抽出性能にはまだ大きなギャップがあると考えられる。
論文 参考訳(メタデータ) (2023-06-05T22:20:52Z) - Large Language Models are Diverse Role-Players for Summarization
Evaluation [82.31575622685902]
文書要約の品質は、文法や正しさといった客観的な基準と、情報性、簡潔さ、魅力といった主観的な基準で人間の注釈者によって評価することができる。
BLUE/ROUGEのような自動評価手法のほとんどは、上記の次元を適切に捉えることができないかもしれない。
目的と主観の両面から生成されたテキストと参照テキストを比較し,総合的な評価フレームワークを提供するLLMに基づく新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-27T10:40:59Z) - Clean Text and Full-Body Transformer: Microsoft's Submission to the
WMT22 Shared Task on Sign Language Translation [11.412720572948086]
この記事では、MicrosoftがWMT 2022で手話翻訳に関する最初の共有タスクを提出したことを述べる。
この課題は、スイスドイツ語の手話の言語翻訳に手話を扱うことである。
データは実際のブロードキャストニュースから収集され、ネイティブな署名や長いビデオのシナリオをカバーしている。
論文 参考訳(メタデータ) (2022-10-24T15:27:38Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - Fine-tuning GPT-3 for Russian Text Summarization [77.34726150561087]
本稿では,テキストを要約するruGPT3(ruGPT3)機能について紹介し,それに対応する人文要約を用いてロシア語ニュースのコーパスを微調整する。
得られたテキストを一連のメトリクスで評価し、アーキテクチャや損失関数に付加的な変更を加えることなく、我々のソリューションが最先端のモデルの性能を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-08-07T19:01:40Z) - Transformers for Headline Selection for Russian News Clusters [0.0]
本稿では,対話評価2021における複数言語とロシア語の事前学習型トランスフォーマーモデルについて検討する。
本実験は, 個別の多言語モデルと単言語モデルに比較して, 組み合わせアプローチが優れていることを示す。
論文 参考訳(メタデータ) (2021-06-19T12:34:00Z) - SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual
Media [50.29389719723529]
本稿では,SemEval-2020 Task 10, Emphasis Selection for Written Text in Visual Media の主な成果とその結果を比較した。
この共有タスクの目的は、強調選択のための自動メソッドを設計することである。
タスクに送信されたシステムの解析は、BERTとRoBERTaが、トレーニング済みモデルの最も一般的な選択であることを示している。
論文 参考訳(メタデータ) (2020-08-07T17:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。