論文の概要: Deep F-measure Maximization for End-to-End Speech Understanding
- arxiv url: http://arxiv.org/abs/2008.03425v1
- Date: Sat, 8 Aug 2020 03:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 11:38:11.560155
- Title: Deep F-measure Maximization for End-to-End Speech Understanding
- Title(参考訳): エンドツーエンド音声理解のための深度F尺度の最大化
- Authors: Leda Sar{\i} and Mark Hasegawa-Johnson
- Abstract要約: 本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
- 参考スコア(独自算出の注目度): 52.36496114728355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spoken language understanding (SLU) datasets, like many other machine
learning datasets, usually suffer from the label imbalance problem. Label
imbalance usually causes the learned model to replicate similar biases at the
output which raises the issue of unfairness to the minority classes in the
dataset. In this work, we approach the fairness problem by maximizing the
F-measure instead of accuracy in neural network model training. We propose a
differentiable approximation to the F-measure and train the network with this
objective using standard backpropagation. We perform experiments on two
standard fairness datasets, Adult, and Communities and Crime, and also on
speech-to-intent detection on the ATIS dataset and speech-to-image concept
classification on the Speech-COCO dataset. In all four of these tasks,
F-measure maximization results in improved micro-F1 scores, with absolute
improvements of up to 8% absolute, as compared to models trained with the
cross-entropy loss function. In the two multi-class SLU tasks, the proposed
approach significantly improves class coverage, i.e., the number of classes
with positive recall.
- Abstract(参考訳): 音声言語理解(SLU)データセットは、他の多くの機械学習データセットと同様に、ラベルの不均衡の問題に悩まされる。
ラベルの不均衡は通常、学習したモデルが出力で同様のバイアスを再現し、データセット内のマイノリティクラスに不公平な問題を引き起こす。
本研究では,ニューラルネットワークモデルトレーニングにおける精度よりもF尺度を最大化することにより,公平性問題にアプローチする。
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
本研究は,成人,地域,犯罪の2つの標準フェアネスデータセットと,atisデータセットにおける音声対インテント検出と音声対イメージ概念分類についての実験を行う。
これら4つのタスクすべてにおいて、f-measureの最大化は、クロスエントロピー損失関数で訓練されたモデルと比較して、絶対値が最大8%改善され、micro-f1スコアが向上する。
2つのマルチクラスsluタスクにおいて、提案手法はクラスカバレッジ、すなわち正のリコールを持つクラス数を大幅に改善する。
関連論文リスト
- Challenging Forgets: Unveiling the Worst-Case Forget Sets in Machine
Unlearning [10.923035911711999]
マシン・アンラーニング(MU)は、選択したデータポイントがモデルの性能に与える影響を排除することを目的としている。
データ影響消去のための様々なMU手法にもかかわらず、評価は主にランダムなデータの忘れ方に焦点を当てている。
本稿では,影響消去の最も重要な課題を示すデータサブセットの同定を提案する。
論文 参考訳(メタデータ) (2024-03-12T06:50:32Z) - Class Imbalance in Object Detection: An Experimental Diagnosis and Study
of Mitigation Strategies [0.5439020425818999]
本研究は, YOLOv5単段検出器を用いて, 前地上クラス不均衡問題に対処するベンチマークフレームワークを提案する。
我々は,サンプリング,損失重み付け,データ強化という3つの確立した手法を精査した。
比較分析の結果,2段階検出法では有効であるが,YOLOv5の性能向上には有効ではないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-11T19:06:04Z) - Fairness-enhancing mixed effects deep learning improves fairness on in-
and out-of-distribution clustered (non-iid) data [7.413980562174725]
本稿では,複合効果深層学習(MEDL)フレームワークを提案する。
MEDLはクラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
我々は,このMEDLと逆行性脱ベンゾル(逆行性脱ベンゾル)を結婚し,公正性に敏感な変数に対するFE,RE,ME予測の対等性を推し進める。
本フレームワークは, 性別で83%, 性で86%, 婚姻統計で27%まで, 敏感な変数の公平性を著しく向上させる。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Federated Learning as Variational Inference: A Scalable Expectation
Propagation Approach [66.9033666087719]
本稿では,推論の視点を拡張し,フェデレート学習の変分推論の定式化について述べる。
我々は、FedEPを標準フェデレーション学習ベンチマークに適用し、収束速度と精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-02-08T17:58:11Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Fairness-Aware Online Meta-learning [9.513605738438047]
本稿では,不公平防止の設定の下で,新しいオンラインメタ学習アルゴリズムFFMLを提案する。
実世界の3つのデータセットの分類にFFMLを適用することで,FFMLの汎用性を実証した。
論文 参考訳(メタデータ) (2021-08-21T04:36:40Z) - Supervised Contrastive Learning for Pre-trained Language Model
Fine-tuning [23.00300794016583]
最先端の自然言語理解分類モデルは2段階に従う。
微調整段階に対する教師付きコントラスト学習(SCL)の目的を提案する。
提案した微調整目的は、微調整訓練データにおいて、異なるレベルのノイズに対してより堅牢なモデルに導かれる。
論文 参考訳(メタデータ) (2020-11-03T01:10:39Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。