論文の概要: Self-Calibrating Neural-Probabilistic Model for Authorship Verification
Under Covariate Shift
- arxiv url: http://arxiv.org/abs/2106.11196v1
- Date: Mon, 21 Jun 2021 15:33:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 18:20:43.939024
- Title: Self-Calibrating Neural-Probabilistic Model for Authorship Verification
Under Covariate Shift
- Title(参考訳): 共変量シフト下でのオーサシップ検証のための自己校正型ニューラル確率モデル
- Authors: Benedikt Boenninghoff, Dorothea Kolossa, Robert M. Nickel
- Abstract要約: 我々はオーサシップ検証(AV)における2つの根本的な問題に対処している。
我々は、フレームワークをPAN 2020からベイズ因子スコアリング(BFS)と不確実性適応層(UAL)に拡張しています。
2020/21 PAN AV共有タスクデータを用いた実験により,提案手法は局所的変動に対する感度を著しく低減し,システムキャリブレーションを大幅に改善することを示した。
- 参考スコア(独自算出の注目度): 14.321827655211544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are addressing two fundamental problems in authorship verification (AV):
Topic variability and miscalibration. Variations in the topic of two disputed
texts are a major cause of error for most AV systems. In addition, it is
observed that the underlying probability estimates produced by deep learning AV
mechanisms oftentimes do not match the actual case counts in the respective
training data. As such, probability estimates are poorly calibrated. We are
expanding our framework from PAN 2020 to include Bayes factor scoring (BFS) and
an uncertainty adaptation layer (UAL) to address both problems. Experiments
with the 2020/21 PAN AV shared task data show that the proposed method
significantly reduces sensitivities to topical variations and significantly
improves the system's calibration.
- Abstract(参考訳): 著者検証(AV)における2つの根本的な問題に対処している。
2つの論争のあるテキストのトピックのバリエーションは、ほとんどのAVシステムにとって大きなエラーの原因である。
また、深層学習av機構によって発生する確率推定値は、各トレーニングデータにおける実際のケースカウントと一致しない。
そのため、確率推定の校正が不十分である。
我々は、このフレームワークをPAN 2020からベイズ因子スコアリング(BFS)と不確実性適応層(UAL)に拡張して、両方の問題に対処しています。
2020/21 PAN AV共有タスクデータを用いた実験により,提案手法は局所的変動に対する感度を著しく低減し,システムキャリブレーションを大幅に改善することを示した。
関連論文リスト
- How to validate average calibration for machine learning regression
tasks ? [0.0]
機械学習回帰タスクの不確実性の平均校正は2つの方法で検証できる。
1つの方法は、キャリブレーション誤差(CE)を平均絶対誤差(MSE)と平均分散(MV)または平均二乗不確実性(MV)の差として推定することである。
もう1つは、平均二乗zスコアまたはスケールドエラー(ZMS)を 1 と比較することである。
論文 参考訳(メタデータ) (2024-02-15T16:05:35Z) - Towards Calibrated Robust Fine-Tuning of Vision-Language Models [83.06807954664431]
我々は、最先端の頑健な微調整が、事前訓練された視覚言語モデルの校正を損なうことを示す。
ドメイン間のIDキャリブレーションとロバスト予測をインセンティブとするキャリブレーション型ロバスト微調整法であるCaRotを提案する。
論文 参考訳(メタデータ) (2023-11-03T05:41:25Z) - Multi-Source Domain Adaptation for Cross-Domain Fault Diagnosis of
Chemical Processes [5.119371135458389]
クロスドメイン障害診断(CDFD)のための単一および複数ソースの教師なし領域適応アルゴリズムを広範囲に比較する。
トレーニング中に複数のドメインを使用する場合,適応が適用されない場合でも,肯定的な効果が認められる。
また,複数ソースのシナリオでは,非適応設定の分類精度を平均8.4%向上させる。
論文 参考訳(メタデータ) (2023-08-22T07:43:59Z) - Calibration-Aware Bayesian Learning [31.31288398691955]
本稿では、キャリブレーション対応ベイズニューラルネットワーク(CA-BNN)と呼ばれる統合フレームワークを提案する。
ベイズ学習のように変分分布を最適化しながら、データ依存あるいはデータ非依存の正則化をそれぞれ適用する。
予測キャリブレーション誤差(ECE)と信頼性図を用いて,提案手法の利点を検証した。
論文 参考訳(メタデータ) (2023-05-12T14:19:15Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Investigation of Different Calibration Methods for Deep Speaker
Embedding based Verification Systems [66.61691401921296]
本稿では, ディープスピーカ埋込抽出器のスコアキャリブレーション法について検討する。
この研究のさらなる焦点は、スコア正規化がシステムの校正性能に与える影響を推定することである。
論文 参考訳(メタデータ) (2022-03-28T21:22:22Z) - Identifying Incorrect Classifications with Balanced Uncertainty [21.130311978327196]
不確実性推定は、コストに敏感なディープラーニングアプリケーションには不可欠である。
本研究では,不確実性推定における不均衡を2種類の分布バイアスとしてモデル化するための分布不均衡を提案する。
そこで我々は,新たな分布的焦点損失目標を持つ不確実性推定器を学習する,バランスト・トゥルー・クラス確率フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-15T11:52:31Z) - Semi-Supervised Learning with Variational Bayesian Inference and Maximum
Uncertainty Regularization [62.21716612888669]
半教師付き学習(SSL)を改善するための2つの一般的な方法を提案する。
第一に、重量摂動(WP)を既存のCR(Consistency regularization)ベースの手法に統合する。
第2の手法は「最大不確実性正規化(MUR)」と呼ばれる新しい整合性損失を提案する。
論文 参考訳(メタデータ) (2020-12-03T09:49:35Z) - Transferable Calibration with Lower Bias and Variance in Domain
Adaptation [139.4332115349543]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの学習マシンの転送を可能にする。
DAモデルの予測的不確実性を推定する方法は、安全クリティカルなシナリオにおける意思決定に不可欠である。
TransCalは既存のDAメソッドの校正に簡単に適用できる。
論文 参考訳(メタデータ) (2020-07-16T11:09:36Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。