論文の概要: EASSE-DE: Easier Automatic Sentence Simplification Evaluation for German
- arxiv url: http://arxiv.org/abs/2404.03563v2
- Date: Fri, 5 Apr 2024 08:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 11:37:03.502812
- Title: EASSE-DE: Easier Automatic Sentence Simplification Evaluation for German
- Title(参考訳): EASSE-DE:ドイツ語の自動文簡易化評価
- Authors: Regina Stodden,
- Abstract要約: EASSE-multiは、英語以外の言語での文の自動評価を容易にするフレームワークである。
トークン化器と、複数の言語に適したテキスト単純化評価メトリクスのバージョンを含んでいる。
本稿では、ドイツ語TSにおけるEASSE-multiの使用例を示し、その結果、EASSE-DEとなる。
- 参考スコア(独自算出の注目度): 4.532517021515834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose EASSE-multi, a framework for easier automatic sentence evaluation for languages other than English. Compared to the original EASSE framework, EASSE-multi does not focus only on English. It contains tokenizers and versions of text simplification evaluation metrics which are suitable for multiple languages. In this paper, we exemplify the usage of EASSE-multi for German TS, resulting in EASSE-DE. Further, we compare text simplification results when evaluating with different language or tokenization settings of the metrics. Based on this, we formulate recommendations on how to make the evaluation of (German) TS models more transparent and better comparable. The code of EASSE-multi and its German specialisation (EASSE-DE) can be found at https://github.com/rstodden/easse-de.
- Abstract(参考訳): 本研究では,英語以外の言語での文の自動評価を容易にするフレームワークであるEASSE-multiを提案する。
オリジナルのEASSEフレームワークと比較して、EASSE-multiは英語のみに焦点を当てていない。
トークン化器と、複数の言語に適したテキスト単純化評価メトリクスのバージョンを含んでいる。
本稿では、ドイツ語TSにおけるEASSE-multiの使用例を示し、その結果、EASSE-DEとなる。
さらに、異なる言語での評価やメトリクスのトークン化設定において、テキストの単純化結果を比較する。
これに基づいて、我々は(ドイツ)TSモデルの評価をより透明化し、比較しやすくする方法に関する勧告を定式化する。
EASSE-multiとそのドイツの特殊化(EASSE-DE)のコードはhttps://github.com/rstodden/easse-deにある。
関連論文リスト
- A General and Flexible Multi-concept Parsing Framework for Multilingual Semantic Matching [60.51839859852572]
我々は,テキストを多言語セマンティックマッチングのためのマルチコンセプトに分解し,NERモデルに依存するモデルからモデルを解放することを提案する。
英語データセットのQQPとMRPC、中国語データセットのMedical-SMについて包括的な実験を行った。
論文 参考訳(メタデータ) (2024-03-05T13:55:16Z) - Contrastive Instruction Tuning [61.97704869248903]
意味論的に等価な命令-インスタンスペア間の類似性を最大化するために、コントラスト命令チューニングを提案する。
PromptBenchベンチマークの実験によると、CoINはLLMの頑健さを一貫して改善し、文字、単語、文、意味のレベルを平均して2.5%の精度で変化させる。
論文 参考訳(メタデータ) (2024-02-17T00:09:32Z) - Modular Adaptation of Multilingual Encoders to Written Swiss German
Dialect [52.1701152610258]
モジュラーエンコーダにスイスドイツ語のアダプタを加えると、完全なモノリシックな適応性能の97.5%が達成される。
標準ドイツ語の問合せを与えられたスイスドイツ語の文を検索する作業において、文字レベルのモデルを適用することは、他の適応戦略よりも効果的である。
論文 参考訳(メタデータ) (2024-01-25T18:59:32Z) - German Text Embedding Clustering Benchmark [0.7182245711235297]
このベンチマークは、テキストのグループ化を必要とするタスクにニューラルネットワークの埋め込みをクラスタ化する使用の増加によって駆動される。
本稿では,異なるクラスタリングアルゴリズムの結果に基づいて,事前学習した単言語モデルと多言語モデルの初期解析を行う。
論文 参考訳(メタデータ) (2024-01-05T08:42:45Z) - MuLER: Detailed and Scalable Reference-based Evaluation [24.80921931416632]
そこで本研究では,テキスト生成のための基準ベース評価基準を細粒度解析ツールに変換する手法を提案する。
システムとメートル法が与えられたとき、MulERは選択されたメートル法が特定のエラータイプをどれだけ罰するかを定量化する。
我々は,MulERの有効性を実証し,その有用性を示すために,合成的および自然主義的な設定の両方で実験を行う。
論文 参考訳(メタデータ) (2023-05-24T10:26:13Z) - Alleviating Over-smoothing for Unsupervised Sentence Representation [96.19497378628594]
本稿では,この問題を緩和するために,SSCL(Self-Contrastive Learning)というシンプルな手法を提案する。
提案手法は非常に単純で,様々な最先端モデルに拡張して,性能向上を図ることができる。
論文 参考訳(メタデータ) (2023-05-09T11:00:02Z) - Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation [70.58243648754507]
抽象的意味表現(AMR)を用いた既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
実験結果から,多言語文をAMRで埋め込むと,意味的類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-10-18T11:37:36Z) - A New Aligned Simple German Corpus [2.7981463795578927]
単純ドイツ語のための文列単言語コーパスを新たに提案する。
自動文アライメント手法を用いてアライメントした複数の文書アライメントソースを含んでいる。
文のアライメントの質は、F1スコアで測定されたように、以前の作業を上回る。
論文 参考訳(メタデータ) (2022-09-02T15:14:04Z) - A new approach to calculating BERTScore for automatic assessment of
translation quality [0.0]
本研究は,BERTScore測定値の文レベルにおける翻訳品質評価への適用性に焦点をあてる。
実験は、事前訓練された多言語BERTと、一対のモノリンガルBERTモデルを用いて行われた。
このような変換がミスマッチの防止に有効であることを実証し,マルチ言語モデルの埋め込みを用いた場合よりも,このアプローチの方が優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2022-03-10T19:25:16Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - Why Not Simply Translate? A First Swedish Evaluation Benchmark for
Semantic Similarity [3.6296396308298795]
本稿では,テキスト意味的類似性に関するスウェーデン初の評価ベンチマークを提案する。
ベンチマークは、Googleの機械翻訳APIを通じて、英語のSTS-Bデータセットを単純に実行することでコンパイルされる。
結果のデータセットに明らかな問題がいくつかあるが、このベンチマークを使用して、現在存在するスウェーデンのテキスト表現の大部分を比較している。
論文 参考訳(メタデータ) (2020-09-07T14:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。