論文の概要: ANGO: A Next-Level Evaluation Benchmark For Generation-Oriented Language
Models In Chinese Domain
- arxiv url: http://arxiv.org/abs/2401.04898v2
- Date: Wed, 21 Feb 2024 06:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 19:27:45.617672
- Title: ANGO: A Next-Level Evaluation Benchmark For Generation-Oriented Language
Models In Chinese Domain
- Title(参考訳): ango:中国ドメインにおける世代指向言語モデルの次世代評価ベンチマーク
- Authors: Bingchao Wang
- Abstract要約: ANGOは中国のマルチ選択質問評価ベンチマークである。
ANGOの各質問は複数のキーポイントに対応でき、評価結果の解釈可能性を大幅に向上させることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, various Large Language Models (LLMs) evaluation datasets have
emerged, but most of them have issues with distorted rankings and difficulty in
model capabilities analysis. Addressing these concerns, this paper introduces
ANGO, a Chinese multi-choice question evaluation benchmark. ANGO proposes
Keypoint categorization standard for the first time, each question in ANGO can
correspond to multiple keypoints, effectively enhancing interpretability of
evaluation results. Base on performance of real humans, we build a quantifiable
question difficulty standard and divide ANGO questions into 9 difficulty
levels, which provide more precise guidance for model training. To minimize
data leakage impact and fully leverage ANGO's innovative features, we have
engineered exclusive sampling strategies and a new evaluation framework that
support swift testset iteration. Our experiments demonstrate that ANGO poses a
stronger challenge to models and reveals more details in evaluation result
compared to existing benchmarks.
- Abstract(参考訳): 近年,様々な大規模言語モデル(llm)評価データセットが出現しているが,そのほとんどは,ゆがんだランキングやモデルの能力分析の難しさに問題がある。
そこで本稿では,中国のマルチチョイス質問評価ベンチマークansoを紹介する。
ANGOは、初めてキーポイント分類標準を提案し、ANGOの各質問は複数のキーポイントに対応し、評価結果の解釈可能性を大幅に向上させる。
実際の人間の性能に基づいて,ANGO質問を9つの難易度に分割し,モデルトレーニングのためのより正確なガイダンスを提供する。
データ漏洩の影響を最小限に抑え、ANGOの革新的な機能を完全に活用するために、独占的なサンプリング戦略と、迅速なテストセットイテレーションをサポートする新しい評価フレームワークを設計しました。
実験の結果,ANGOはモデルに強い課題を呈し,既存のベンチマークと比較して評価結果のさらなる詳細を明らかにすることができた。
関連論文リスト
- MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Open-ended VQA benchmarking of Vision-Language models by exploiting Classification datasets and their semantic hierarchy [27.454549324141087]
本稿では、よく知られた視覚分類データセットに基づく新しいVQAベンチマークを提案する。
また,ラベル空間のセマンティックな階層構造を用いて,基底構造カテゴリに関するフォローアップ質問を自動的に生成することを提案する。
私たちの貢献は、より正確で有意義な評価の基礎を築くことを目的としています。
論文 参考訳(メタデータ) (2024-02-11T18:26:18Z) - Leveraging Large Language Models for NLG Evaluation: Advances and Challenges [57.88520765782177]
大規模言語モデル(LLM)は、コヒーレンス、クリエイティビティ、コンテキスト関連など、生成されたコンテンツ品質を評価するための新たな道を開いた。
既存のLCMに基づく評価指標を整理し、これらの手法を理解し比較するための構造化された枠組みを提供する。
本稿では, 偏見, 堅牢性, ドメイン固有性, 統一評価などの未解決課題を議論することによって, 研究者に洞察を提供し, より公平で高度なNLG評価手法を提唱することを目的とする。
論文 参考訳(メタデータ) (2024-01-13T15:59:09Z) - SOUL: Towards Sentiment and Opinion Understanding of Language [96.74878032417054]
我々は、言語感覚とオピニオン理解(SOUL)と呼ばれる新しいタスクを提案する。
SOULは2つのサブタスクを通して感情理解を評価することを目的としている:レビュー(RC)と正当化生成(JG)。
論文 参考訳(メタデータ) (2023-10-27T06:48:48Z) - Revisiting Out-of-distribution Robustness in NLP: Benchmark, Analysis,
and LLMs Evaluations [111.88727295707454]
本稿では,NLP分野におけるアウト・オブ・ディストリビューション(OOD)のロバスト性に関する研究を再検討する。
本稿では, 明確な分化と分散の困難さを保証するための, ベンチマーク構築プロトコルを提案する。
我々は,OODロバスト性の分析と評価のための事前学習言語モデルの実験を行った。
論文 参考訳(メタデータ) (2023-06-07T17:47:03Z) - Benchmarking Foundation Models with Language-Model-as-an-Examiner [47.345760054595246]
本稿では,新しいベンチマークフレームワークLanguage-Model-as-an-Examinerを提案する。
LMは、その知識に基づいて質問を定式化し、基準のない方法で応答を評価する、知識に富んだ検査者として機能する。
論文 参考訳(メタデータ) (2023-06-07T06:29:58Z) - Evaluating the Performance of Large Language Models on GAOKAO Benchmark [53.663757126289795]
本稿では,中国のガオカオ検定の質問をサンプルとして用いた直感的なベンチマークであるガオカオベンチについて紹介する。
人間の評価により, GPT-4, ChatGPT, ERNIE-Botを含むLLMの変換総得点を得た。
また、LLMを用いて主観的質問を格付けし、モデルスコアが人間のスコアと適度な一貫性を達成することを確認する。
論文 参考訳(メタデータ) (2023-05-21T14:39:28Z) - Few-shot Named Entity Recognition with Cloze Questions [3.561183926088611]
本稿では,クローゼクエスト機構とファインチューニングを併用した数ショット学習手法であるPET(Pattern-Exploiting Training)の簡易かつ直感的な適応を提案する。
提案手法は,他の数発のベースラインに対して,標準的な微調整や同等あるいは改良された結果よりもはるかに優れた性能を実現する。
論文 参考訳(メタデータ) (2021-11-24T11:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。