論文の概要: Investigating the Failure Modes of the AUC metric and Exploring
Alternatives for Evaluating Systems in Safety Critical Applications
- arxiv url: http://arxiv.org/abs/2210.04466v1
- Date: Mon, 10 Oct 2022 07:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 14:38:58.368935
- Title: Investigating the Failure Modes of the AUC metric and Exploring
Alternatives for Evaluating Systems in Safety Critical Applications
- Title(参考訳): aucメトリックの故障モードの検討と安全クリティカル応用におけるシステム評価の代替方法の検討
- Authors: Swaroop Mishra, Anjana Arunkumar, Chitta Baral
- Abstract要約: 曲線下面積(AUC)は、モデルの選択的解答能力を評価する指標として用いられる。
例えば、より高いAUCを持つモデルは、選択的な回答を行うのに必ずしも優れているとは限らない。
特定された制限を修正するための3つの代替指標を提案する。
- 参考スコア(独自算出の注目度): 26.128027710026313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing importance of safety requirements associated with the use
of black box models, evaluation of selective answering capability of models has
been critical. Area under the curve (AUC) is used as a metric for this purpose.
We find limitations in AUC; e.g., a model having higher AUC is not always
better in performing selective answering. We propose three alternate metrics
that fix the identified limitations. On experimenting with ten models, our
results using the new metrics show that newer and larger pre-trained models do
not necessarily show better performance in selective answering. We hope our
insights will help develop better models tailored for safety-critical
applications.
- Abstract(参考訳): ブラックボックスモデルの使用に伴う安全性要件の重要性が高まっているため、モデルの選択解答能力の評価が重要になっている。
曲線下面積(AUC)はこの目的のためにメートル法として使用される。
例えば、より高いAUCを持つモデルは、選択的な回答を行う上で常に優れているとは限らない。
特定された制限を修正するための3つの代替指標を提案する。
10種類のモデルを用いて実験した結果, より新しい, より大規模な事前学習モデルでは, 選択解法の性能が必ずしも向上しないことがわかった。
私たちの洞察が、安全クリティカルなアプリケーションに適したモデルの開発に役立つことを願っています。
関連論文リスト
- The Hidden Risks of Large Reasoning Models: A Safety Assessment of R1 [70.94607997570729]
本稿では,OpenAI-o3およびDeepSeek-R1推論モデルの総合的安全性評価を行う。
本研究では, 現実の応用における強靭性を評価するために, ジェイルブレイクやインジェクションなどの敵攻撃に対する感受性について検討する。
論文 参考訳(メタデータ) (2025-02-18T09:06:07Z) - SMARTCAL: An Approach to Self-Aware Tool-Use Evaluation and Calibration [24.739131794947838]
我々は,2つの主要なツール・ユース・フレームワークを持つ3つのデータセット上で,最先端のLarge Language Models (LLM) ファミリーの研究を行う。
本研究は,自信過剰にツールを誤用する傾向にあるLSMのツール使用行動を明らかにする。
我々は、観察された問題を緩和するための新しいアプローチ、textitCALを提案する。
論文 参考訳(メタデータ) (2024-12-11T06:09:12Z) - Safe to Serve: Aligning Instruction-Tuned Models for Safety and Helpfulness [0.0]
大規模言語モデル (LLM) は複雑な推論やテキスト生成において顕著な能力を示した。
LLMは、問題のある入力を誘導すると、不安全または偏りの応答を不注意に生成することができる。
本研究は、有用なコンテンツと無害コンテンツの両方を生成する言語モデルを開発する上で、重要な課題に対処する。
論文 参考訳(メタデータ) (2024-11-26T06:52:22Z) - Forgetting Curve: A Reliable Method for Evaluating Memorization Capability for Long-context Models [58.6172667880028]
長文モデルの暗記能力を測定するために,左折曲線と呼ばれる新しい手法を提案する。
テストコーパスと実験環境に頑健であることの利点を, 忘れる曲線は有益であることを示す。
本測定は,RNN/SSMモデルの有効性を疑問視しながら,トランスフォーマー拡張手法の有効性を示す実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-10-07T03:38:27Z) - Alternate Preference Optimization for Unlearning Factual Knowledge in Large Language Models [2.0962367975513496]
機械学習は、特定のトレーニングデータの影響をモデルから効率的に排除することを目的としている。
既存の未学習手法は, 無視集合に関連する応答を抑制するために, 負のフィードバックのみに頼っている。
本稿では,AltPO(Alternate Preference Optimization)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-20T13:05:07Z) - Benchmarks as Microscopes: A Call for Model Metrology [76.64402390208576]
現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
論文 参考訳(メタデータ) (2024-07-22T17:52:12Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - The Misuse of AUC: What High Impact Risk Assessment Gets Wrong [3.244379854721909]
モデル性能指標としてのAUCの現在の使用と理解は、その測定方法の使い方を誤解していると論じる。
AUCを含む現在のモデル検証プラクティスは、堅牢ではなく、しばしば無効である、と結論付けている。
論文 参考訳(メタデータ) (2023-05-29T15:41:00Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。