論文の概要: Rethinking and Refining the Distinct Metric
- arxiv url: http://arxiv.org/abs/2202.13587v1
- Date: Mon, 28 Feb 2022 07:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 14:27:25.041272
- Title: Rethinking and Refining the Distinct Metric
- Title(参考訳): 個別メートル法の再考と精錬
- Authors: Siyang Liu, Sahand Sabour, Yinhe Zheng, Pei Ke, Xiaoyan Zhu, Minlie
Huang
- Abstract要約: 我々は、その期待に基づいて異なるトークンの数を再スケーリングすることで、異なるスコアの計算を洗練する。
実験的および理論的証拠の両面から,本手法が元の異なるスコアで示されるバイアスを効果的に除去することを示す。
- 参考スコア(独自算出の注目度): 61.213465863627476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distinct is a widely used automatic metric for evaluating the diversity of
language generation tasks. However, we observe that the original approach to
calculating distinct scores has evident biases that tend to add higher
penalties to longer sequences. In this paper, we refine the calculation of
distinct scores by re-scaling the number of distinct tokens based on its
expectation. We provide both empirical and theoretical evidence to show that
our method effectively removes the biases exhibited in the original distinct
score. Further analyses also demonstrate that the refined score correlates
better with human evaluations.
- Abstract(参考訳): Distinctは、言語生成タスクの多様性を評価するために広く使われている自動メトリクスである。
しかし,異なるスコアを計算する元来のアプローチは,長い列に高いペナルティを課す傾向のある明らかなバイアスを持つ。
本稿では,その期待値に基づいて異なるトークン数を再スケーリングすることで,異なるスコアの計算を洗練する。
実験と理論の両方の証拠を提供し,本手法が元のスコアで示されるバイアスを効果的に除去することを示す。
さらなる分析により、改良されたスコアは人間の評価と相関することが示された。
関連論文リスト
- Covariate Assisted Entity Ranking with Sparse Intrinsic Scores [3.2839905453386162]
我々は,新しいモデル同定条件を導入し,正規化された最大推定値の統計率について検討する。
また,本手法を潜在固有スコアを持たないモデルに対する適合性テストに適用する。
論文 参考訳(メタデータ) (2024-07-09T19:58:54Z) - Compare without Despair: Reliable Preference Evaluation with Generation Separability [20.50638483427141]
テストインスタンスがペアの選好評価にどの程度適しているかを推定する尺度であるセパビリティ(Separability)を導入する。
候補テストインスタンスでは、セパビリティは1組のモデルから複数の世代をサンプリングし、2つの世代がどの程度区別可能であるかを測定する。
実験により、分離性が高いインスタンスは、人間と自動レーダの両方からより一貫した選好格付けが得られることが示された。
論文 参考訳(メタデータ) (2024-07-02T01:37:56Z) - Human Feedback is not Gold Standard [28.63384327791185]
我々は、トレーニングと評価の両方において、人間のフィードバックの使用を批判的に分析する。
選好スコアはかなり良いカバレッジを持っているが、事実性のような重要な側面は低く表現されている。
論文 参考訳(メタデータ) (2023-09-28T11:18:20Z) - Language Model Classifier Aligns Better with Physician Word Sensitivity
than XGBoost on Readmission Prediction [86.15787587540132]
語彙レベルでモデルの振る舞いを精査する尺度である感度スコアを導入する。
本実験は,感度スコアのランク相関に基づいて,臨床医と分類医の意思決定論理を比較した。
論文 参考訳(メタデータ) (2022-11-13T23:59:11Z) - Discrete representations in neural models of spoken language [56.29049879393466]
音声言語の弱教師付きモデルの文脈における4つの一般的なメトリクスの利点を比較した。
異なる評価指標が矛盾する結果をもたらすことが分かりました。
論文 参考訳(メタデータ) (2021-05-12T11:02:02Z) - A Statistical Analysis of Summarization Evaluation Metrics using
Resampling Methods [60.04142561088524]
信頼区間は比較的広く,信頼性の高い自動測定値の信頼性に高い不確実性を示す。
多くのメトリクスはROUGEよりも統計的改善を示していないが、QAEvalとBERTScoreという2つの最近の研究は、いくつかの評価設定で行われている。
論文 参考訳(メタデータ) (2021-03-31T18:28:14Z) - Nonparametric Score Estimators [49.42469547970041]
未知分布によって生成されたサンプルの集合からスコアを推定することは確率モデルの推論と学習における基本的なタスクである。
正規化非パラメトリック回帰の枠組みの下で、これらの推定器の統一的なビューを提供する。
カールフリーカーネルと高速収束による計算効果を享受する反復正規化に基づくスコア推定器を提案する。
論文 参考訳(メタデータ) (2020-05-20T15:01:03Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。