論文の概要: Benchmarks as Microscopes: A Call for Model Metrology
        - arxiv url: http://arxiv.org/abs/2407.16711v1
- Date: Mon, 22 Jul 2024 17:52:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-25 17:52:45.643759
- Title: Benchmarks as Microscopes: A Call for Model Metrology
- Title(参考訳): 顕微鏡としてのベンチマーク - モデルメトロロジーへのコール
- Authors: Michael Saxon, Ari Holtzman, Peter West, William Yang Wang, Naomi Saphra, 
- Abstract要約: 現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
- 参考スコア(独自算出の注目度): 76.64402390208576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract:   Modern language models (LMs) pose a new challenge in capability assessment. Static benchmarks inevitably saturate without providing confidence in the deployment tolerances of LM-based systems, but developers nonetheless claim that their models have generalized traits such as reasoning or open-domain language understanding based on these flawed metrics. The science and practice of LMs requires a new approach to benchmarking which measures specific capabilities with dynamic assessments. To be confident in our metrics, we need a new discipline of model metrology -- one which focuses on how to generate benchmarks that predict performance under deployment. Motivated by our evaluation criteria, we outline how building a community of model metrology practitioners -- one focused on building tools and studying how to measure system capabilities -- is the best way to meet these needs to and add clarity to the AI discussion. 
- Abstract(参考訳): 現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
静的ベンチマークは、LMベースのシステムのデプロイメント耐性に自信を持たずに必然的に飽和するが、それでも開発者は、彼らのモデルは、これらの欠陥のあるメトリクスに基づいた推論やオープンドメイン言語理解のような一般化された特徴を持っていると主張している。
LMの科学と実践は、動的アセスメントで特定の能力を測定するベンチマークに新しいアプローチを必要とする。
メトリクスに自信を持つためには、モデルメロジ – デプロイメント中のパフォーマンスを予測するベンチマークの生成方法に焦点を当てた、モデルメロジの新たな規律が必要です。評価基準によって、モデルメロジ実践者のコミュニティの構築 — ツールの構築とシステム機能の測定方法の研究 – が、これらのニーズを満たす最善の方法であり、AI議論に明快さを加える方法である、と概説します。
 
      
        関連論文リスト
        - Towards Robust LLMs: an Adversarial Robustness Measurement Framework [0.0]
 大規模言語モデル(LLM)は敵の摂動に弱いままであり、高い精度のアプリケーションでは信頼性を損なう。
我々はロバストネス測定および評価フレームワークを適用し、モデルパラメータへのアクセスを必要とせず、逆入力に対するLLMレジリエンスの定量化を行う。
我々の研究は、LLMの堅牢性を評価するための体系的な方法論を提供し、実世界展開のためのより信頼性の高い言語モデルの開発を進めています。
 論文  参考訳(メタデータ) (2025-04-24T16:36:19Z)
- Revisiting LLM Evaluation through Mechanism Interpretability: a New   Metric and Model Utility Law [99.56567010306807]
 大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
本稿では,従来の性能指標を補完する機構解釈可能性技術を導入し,モデル利用指標(MUI)を提案する。
 論文  参考訳(メタデータ) (2025-04-10T04:09:47Z)
- Beyond Scaling: Measuring and Predicting the Upper Bound of Knowledge   Retention in Language Model Pre-Training [51.41246396610475]
 本稿では,外部ツールを使わずにクローズドブック質問応答(QA)の性能を予測することを目的とする。
我々は、21の公開言語と3つのカスタムトレーニングされた大規模言語モデルの事前学習コーパスに対して、大規模な検索と意味解析を行う。
これらの基礎の上に構築されたSMI(Size-dependent Mutual Information)は,事前学習データの特徴を線形に相関させる情報理論の指標である。
 論文  参考訳(メタデータ) (2025-02-06T13:23:53Z)
- Training an LLM-as-a-Judge Model: Pipeline, Insights, and Practical   Lessons [9.954960702259918]
 本稿では,文脈認識評価を行うLLM(en:en:en:en:en:en:en:en:LLMs)ジャッジであるThemisを紹介する。
Themisの開発パイプラインの概要を概観し、シナリオに依存した評価プロンプトを強調します。
メタ評価のための人間ラベル付きベンチマークを2つ導入し、テミスが人間の嗜好を経済的に高度に調整できることを実証した。
 論文  参考訳(メタデータ) (2025-02-05T08:35:55Z)
- A Novel Psychometrics-Based Approach to Developing Professional   Competency Benchmark for Large Language Models [0.0]
 本稿では,厳密な心理測定原理に基づくベンチマーク開発への包括的アプローチを提案する。
我々は、教育と教育の分野で新しいベンチマークを作成することで、このアプローチを説明する最初の試みを行う。
我々はブルームの分類学によってガイドされ、テスト開発で訓練された教育専門家のコンソーシアムによって厳格に設計された新しいベンチマークを構築した。
 論文  参考訳(メタデータ) (2024-10-29T19:32:43Z)
- PerturBench: Benchmarking Machine Learning Models for Cellular   Perturbation Analysis [14.526536510805755]
 本稿では,この急速に発展する分野におけるベンチマークの標準化を目的として,単一細胞における摂動の影響を予測するための包括的なフレームワークを提案する。
当社のフレームワークであるPerturBenchには、ユーザフレンドリなプラットフォーム、多様なデータセット、フェアモデル比較のためのメトリクス、詳細なパフォーマンス分析が含まれています。
 論文  参考訳(メタデータ) (2024-08-20T07:40:20Z)
- MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in   LLMs [55.20845457594977]
 大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
 論文  参考訳(メタデータ) (2024-06-20T03:50:23Z)
- Inadequacies of Large Language Model Benchmarks in the Era of Generative   Artificial Intelligence [5.147767778946168]
 我々は、23の最先端のLarge Language Models (LLMs)ベンチマークを批判的に評価する。
私たちの研究は、バイアス、真の推論、適応性、実装の不整合、エンジニアリングの複雑さ、多様性、文化的およびイデオロギー規範の見落としなど、重大な制限を明らかにしました。
 論文  参考訳(メタデータ) (2024-02-15T11:08:10Z)
- QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
 モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
 論文  参考訳(メタデータ) (2023-11-06T00:21:44Z)
- Don't Make Your LLM an Evaluation Benchmark Cheater [142.24553056600627]
 大規模言語モデル(LLM)は人工知能のフロンティアを大幅に進歩させ、モデルキャパシティを著しく向上させた。
モデル性能を評価するために, LLMの能力レベルを測定するための評価ベンチマークを構築するのが典型的な方法である。
評価ベンチマークを用いて不適切なリスクと影響について検討し,評価結果を誤って解釈する。
 論文  参考訳(メタデータ) (2023-11-03T14:59:54Z)
- Learning Evaluation Models from Large Language Models for Sequence   Generation [61.8421748792555]
 本稿では,大規模言語モデルを用いた3段階評価モデルトレーニング手法を提案する。
SummEval ベンチマークによる実験結果から,CSEM は人間ラベルデータなしで評価モデルを効果的に訓練できることが示された。
 論文  参考訳(メタデータ) (2023-08-08T16:41:16Z)
- From Static Benchmarks to Adaptive Testing: Psychometrics in AI   Evaluation [60.14902811624433]
 本稿では,静的評価手法から適応テストへのパラダイムシフトについて論じる。
これには、ベンチマークで各テスト項目の特性と価値を推定し、リアルタイムでアイテムを動的に調整することが含まれる。
我々は、AI評価にサイコメトリックを採用する現在のアプローチ、アドバンテージ、そして根底にある理由を分析します。
 論文  参考訳(メタデータ) (2023-06-18T09:54:33Z)
- Evaluating Explainability in Machine Learning Predictions through   Explainer-Agnostic Metrics [0.0]
 我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
 論文  参考訳(メタデータ) (2023-02-23T15:28:36Z)
- Exploring validation metrics for offline model-based optimisation with
  diffusion models [50.404829846182764]
 モデルベース最適化(MBO)では、マシンラーニングを使用して、(基底真理)オラクルと呼ばれるブラックボックス関数に対する報酬の尺度を最大化する候補を設計することに興味があります。
モデル検証中に基底オラクルに対する近似をトレーニングし、その代わりに使用することができるが、その評価は近似的であり、敵の例に対して脆弱である。
本手法は,外挿量を測定するために提案した評価フレームワークにカプセル化されている。
 論文  参考訳(メタデータ) (2022-11-19T16:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。