論文の概要: DIVINE: Diverse Influential Training Points for Data Visualization and
Model Refinement
- arxiv url: http://arxiv.org/abs/2107.05978v1
- Date: Tue, 13 Jul 2021 10:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:50:06.040350
- Title: DIVINE: Diverse Influential Training Points for Data Visualization and
Model Refinement
- Title(参考訳): DIVINE:データ可視化とモデルリファインメントのための多種多様なインフルエンシャルトレーニングポイント
- Authors: Umang Bhatt, Isabel Chien, Muhammad Bilal Zafar, Adrian Weller
- Abstract要約: 本稿では,モデル行動の有用な説明として,DIVerse InfluEntial (DIVINE) トレーニングポイントのセットを選択する手法を提案する。
本手法は,公平性向上のために除去できる不公平性誘導訓練点を同定することができる。
- 参考スコア(独自算出の注目度): 32.045420977032926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the complexity of machine learning (ML) models increases, resulting in a
lack of prediction explainability, several methods have been developed to
explain a model's behavior in terms of the training data points that most
influence the model. However, these methods tend to mark outliers as highly
influential points, limiting the insights that practitioners can draw from
points that are not representative of the training data. In this work, we take
a step towards finding influential training points that also represent the
training data well. We first review methods for assigning importance scores to
training points. Given importance scores, we propose a method to select a set
of DIVerse INfluEntial (DIVINE) training points as a useful explanation of
model behavior. As practitioners might not only be interested in finding data
points influential with respect to model accuracy, but also with respect to
other important metrics, we show how to evaluate training data points on the
basis of group fairness. Our method can identify unfairness-inducing training
points, which can be removed to improve fairness outcomes. Our quantitative
experiments and user studies show that visualizing DIVINE points helps
practitioners understand and explain model behavior better than earlier
approaches.
- Abstract(参考訳): 機械学習(ML)モデルの複雑さが増大し、予測可能性の欠如が生じるにつれて、モデルに最も影響を与えるトレーニングデータポイントの観点からモデルの振る舞いを説明するためのいくつかの手法が開発されている。
しかしながら、これらの手法は外れ値を非常に影響力のある点としてマークする傾向があり、実践者がトレーニングデータの代表的でない点から引き出すことのできる洞察を制限している。
本研究では、トレーニングデータもよく表現した、影響力のあるトレーニングポイントを見つけるための一歩を踏み出します。
まず,重要度をトレーニングポイントに割り当てる手法について検討する。
そこで本研究では,DIVerse InfluEntial (DIVINE) トレーニングポイントをモデル行動の有用な説明として選択する方法を提案する。
実践者はモデルの正確性に影響を及ぼすデータポイントを見つけることに関心があるだけでなく、他の重要なメトリクスにも関心があるため、グループフェアネスに基づいてトレーニングデータポイントを評価する方法を示す。
本手法は,公平性向上のために除去できる不公平性誘導訓練点を同定することができる。
我々の定量的実験とユーザスタディにより、DIVINEポイントの可視化は、実践者が以前のアプローチよりもモデル行動を理解し説明するのに役立ちます。
関連論文リスト
- Unlearning Reveals the Influential Training Data of Language Models [37.02159903174132]
本稿では、トレーニングデータセットの影響をトレーニングモデルから学習することによって推定するUnTracを提案する。
我々は,本手法が有毒,偏り,不合理なコンテンツの生成に対する事前学習データセットの影響を評価できるかどうかを実証的に検討する。
論文 参考訳(メタデータ) (2024-01-26T23:17:31Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Understanding new tasks through the lens of training data via
exponential tilting [43.33775132139584]
対象タスクの分布を把握するために,トレーニングサンプルを再検討する問題を考察する。
指数的傾き仮定に基づいて分布シフトモデルを定式化し、列車データ重み付けを学習する。
学習したトレインデータの重み付けは、目標のパフォーマンス評価、微調整、モデル選択といった下流タスクに使用できる。
論文 参考訳(メタデータ) (2022-05-26T18:38:43Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Contrasting Contrastive Self-Supervised Representation Learning Models [29.1857781719894]
我々は,自己教師付き表現学習の最も成功し,人気のある変種の一つであるコントラスト的アプローチを分析した。
エンコーダ30台,プリトレーニングデータセット4台,ダウンストリームタスク20台を含む,700以上のトレーニング実験を行った。
論文 参考訳(メタデータ) (2021-03-25T17:40:38Z) - Efficient Estimation of Influence of a Training Instance [56.29080605123304]
本稿では,ニューラルネットワークモデルに対するトレーニングインスタンスの影響を効率的に推定する手法を提案する。
このメソッドは、サブネットワークをゼロマスクし、サブネットワークが各トレーニングインスタンスを学習するのを防ぎます。
提案手法は, 学習の影響を捉え, 誤り予測の解釈性を高め, 一般化改善のための訓練データセットをクリーン化できることを実証する。
論文 参考訳(メタデータ) (2020-12-08T04:31:38Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - How Training Data Impacts Performance in Learning-based Control [67.7875109298865]
本稿では,トレーニングデータの密度と制御性能の関係を考察する。
データセットの品質尺度を定式化し、$rho$-gap と呼ぶ。
フィードバック線形化制御法に$rho$-gapを適用する方法を示す。
論文 参考訳(メタデータ) (2020-05-25T12:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。