論文の概要: Understanding Text Classification Data and Models Using Aggregated Input
Salience
- arxiv url: http://arxiv.org/abs/2211.05485v1
- Date: Thu, 10 Nov 2022 11:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:04:12.550303
- Title: Understanding Text Classification Data and Models Using Aggregated Input
Salience
- Title(参考訳): 集約型入力サリエンスを用いたテキスト分類データとモデル理解
- Authors: Sebastian Ebert, Alice Shoshana Jakobovits, Katja Filippova
- Abstract要約: 場合によっては、入力の最も重要な部分を強調する入力サリエンス法が問題となる可能性がある。
本稿では,これらの課題に対処し,単一例の理解からデータセットやモデル全体の理解へと進むことを目的とする。
この方法論を用いることで、複数の異なるが一般的なモデル開発者のニーズに対処し、問題のあるデータとモデルの振る舞いをいかに特定できるかを示す。
- 参考スコア(独自算出の注目度): 2.105564340986074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Realizing when a model is right for a wrong reason is not trivial and
requires a significant effort by model developers. In some cases, an input
salience method, which highlights the most important parts of the input, may
reveal problematic reasoning. But scrutinizing highlights over many data
instances is tedious and often infeasible. Furthermore, analyzing examples in
isolation does not reveal general patterns in the data or in the model's
behavior.In this paper we aim to address these issues and go from understanding
single examples to understanding entire datasets and models. The methodology we
propose is based on aggregated salience maps. Using this methodology we address
multiple distinct but common model developer needs by showing how problematic
data and model behavior can be identified -- a necessary first step for
improving the model.
- Abstract(参考訳): モデルが間違った理由で正しいと認識することは自明ではなく、モデル開発者による多大な努力を必要とする。
場合によっては、入力の最も重要な部分を強調する入力サリエンス法が問題となる可能性がある。
しかし、多くのデータインスタンスに対するハイライトの精査は退屈で、しばしば実現不可能である。
さらに,サンプルを分離して分析することは,データやモデルの動作における一般的なパターンを明らかにしない。この記事では,これらの問題に対処し,一例の理解からデータセットやモデル全体を理解することを目的としている。
提案手法は,集計されたサリエンスマップに基づく。
この方法論を用いることで、複数の異なるが一般的なモデル開発者のニーズに対処し、問題のあるデータとモデルの振る舞いをいかに特定できるかを示す。
関連論文リスト
- Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Sharing pattern submodels for prediction with missing values [12.981974894538668]
機械学習の多くのアプリケーションでは欠落値は避けられず、トレーニング中もテスト時にも課題が提示される。
パターンサブモデル(パターンサブモデル)と呼ばれる別の手法を提案する。これは、テスト時に欠落した値に対して、予測を堅牢にし、パターンサブモデルの予測力を維持または改善させる。
論文 参考訳(メタデータ) (2022-06-22T15:09:40Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Self-Attention Between Datapoints: Going Beyond Individual Input-Output
Pairs in Deep Learning [36.047444794544425]
一度に1つのデータポイントを処理するのではなく、データセット全体を入力として扱う汎用ディープラーニングアーキテクチャを導入します。
このアプローチでは、データポイント間の関係を明示的に推論するために、自己注意を使用します。
従来の非パラメトリックモデルとは異なり、予測に他のデータポイントを使う方法をデータからエンド・ツー・エンドに学習させる。
論文 参考訳(メタデータ) (2021-06-04T16:30:49Z) - Field-wise Learning for Multi-field Categorical Data [27.100048708707593]
マルチフィールド分類データを用いた新しい学習法を提案する。
これにより、モデルが各カテゴリに適合し、基礎となるデータの違いをよりよく捉えることができる。
2つの大規模データセットに対する実験結果から,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-12-01T01:10:14Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。