論文の概要: Deep Active Learning by Model Interpretability
- arxiv url: http://arxiv.org/abs/2007.12100v4
- Date: Sun, 6 Sep 2020 06:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 11:53:33.416518
- Title: Deep Active Learning by Model Interpretability
- Title(参考訳): モデル解釈による深層アクティブラーニング
- Authors: Qiang Liu and Zhaocheng Liu and Xiaofang Zhu and Yeliang Xiu
- Abstract要約: 本稿では, 線形分離可能なサンプル領域について, アクティブラーニングの課題について紹介する。
モデル解釈可能性(DAMI)を用いた新しい深層能動学習手法を提案する。
ラベルなしデータ全体の最大代表性を維持するため、DAMIは異なる線形分離可能な領域のサンプルを選択してラベル付けしようとする。
- 参考スコア(独自算出の注目度): 7.3461534048332275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent successes of Deep Neural Networks (DNNs) in a variety of research
tasks, however, heavily rely on the large amounts of labeled samples. This may
require considerable annotation cost in real-world applications. Fortunately,
active learning is a promising methodology to train high-performing model with
minimal annotation cost. In the deep learning context, the critical question of
active learning is how to precisely identify the informativeness of samples for
DNN. In this paper, inspired by piece-wise linear interpretability in DNN, we
introduce the linearly separable regions of samples to the problem of active
learning, and propose a novel Deep Active learning approach by Model
Interpretability (DAMI). To keep the maximal representativeness of the entire
unlabeled data, DAMI tries to select and label samples on different linearly
separable regions introduced by the piece-wise linear interpretability in DNN.
We focus on modeling Multi-Layer Perception (MLP) for modeling tabular data.
Specifically, we use the local piece-wise interpretation in MLP as the
representation of each sample, and directly run K-Center clustering to select
and label samples. To be noted, this whole process of DAMI does not require any
hyper-parameters to tune manually. To verify the effectiveness of our approach,
extensive experiments have been conducted on several tabular datasets. The
experimental results demonstrate that DAMI constantly outperforms several
state-of-the-art compared approaches.
- Abstract(参考訳): しかし、近年のディープニューラルネットワーク(DNN)の様々な研究課題における成功は、大量のラベル付きサンプルに大きく依存している。
これは現実世界のアプリケーションでかなりのアノテーションコストを必要とする可能性がある。
幸いなことに、アクティブな学習は、最小のアノテーションコストでハイパフォーマンスモデルをトレーニングするための有望な方法論です。
ディープラーニングの文脈では、アクティブラーニングの重要な疑問は、DNNのサンプルの情報を正確に識別する方法である。
本稿では,dnnにおける分割線形解釈可能性に触発されて,サンプルの線形分離可能な領域をアクティブラーニング問題に導入し,モデル解釈可能性(dami)を用いた新しい深層アクティブラーニング手法を提案する。
ラベルなしデータ全体の最大代表性を維持するため、DNNにおける断片的線形解釈可能性によって導入された異なる線形分離可能な領域のサンプルを選択し、ラベル付けしようとする。
表データモデリングのための多層知覚(mlp)のモデル化に注目する。
具体的には,MLPの局所的な断片解釈を各サンプルの表現として使用し,K-Centerクラスタリングを直接実行してサンプルを選択し,ラベル付けする。
ただし、このDAMIのプロセス全体は、手動でチューニングするハイパーパラメータを必要としない。
提案手法の有効性を検証するため,複数の表付きデータセットに対して広範な実験を行った。
実験結果から、DAMIはいくつかの最先端比較手法よりも常に優れていることが示された。
関連論文リスト
- Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Supervised Gradual Machine Learning for Aspect Category Detection [0.9857683394266679]
アスペクトカテゴリー検出(ACD)は、あるレビュー文の中で暗黙的かつ明示的な側面を識別することを目的としている。
本稿では,Deep Neural Networks (DNN) と Gradual Machine Learning (GML) を教師付き環境で組み合わせることで,ACDタスクに取り組む新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T07:21:46Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Optimal Sample Selection Through Uncertainty Estimation and Its
Application in Deep Learning [22.410220040736235]
コアセット選択とアクティブラーニングの両方に対処するための理論的に最適な解を提案する。
提案手法であるCOPSは,サブサンプルデータに基づいてトレーニングされたモデルの損失を最小限に抑えるために設計されている。
論文 参考訳(メタデータ) (2023-09-05T14:06:33Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - Deep Active Learning for Text Classification with Diverse
Interpretations [20.202134075256094]
そこで我々は,DivErse iNterpretations (ALDEN) を用いた新しいアクティブラーニング手法を提案する。
ディープニューラルネットワーク(DNN)の局所的な解釈により、ALDENは標本の線形分離可能な領域を特定する。
テキスト分類問題に対処するために,文章全体を表現するために,最も多様な解釈で単語を選択する。
論文 参考訳(メタデータ) (2021-08-15T10:42:07Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - On Deep Unsupervised Active Learning [41.579343330613675]
教師なしアクティブラーニングは、教師なしアノテートのための教師なしセッティングで代表サンプルを選択することを目的としている。
本稿では,教師なしアクティブラーニングのための新しいディープニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-28T02:52:21Z) - Causality-aware counterfactual confounding adjustment for feature
representations learned by deep models [14.554818659491644]
因果モデリングは機械学習(ML)における多くの課題に対する潜在的な解決策として認識されている。
深層ニューラルネットワーク(DNN)モデルによって学習された特徴表現を分解するために、最近提案された対実的アプローチが依然として使われている方法について説明する。
論文 参考訳(メタデータ) (2020-04-20T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。