論文の概要: Knowledge-driven Active Learning
- arxiv url: http://arxiv.org/abs/2110.08265v1
- Date: Fri, 15 Oct 2021 06:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 05:17:50.736037
- Title: Knowledge-driven Active Learning
- Title(参考訳): 知識駆動アクティブラーニング
- Authors: Gabriele Ciravegna, Frederic Precioso, Marco Gori
- Abstract要約: アクティブ・ラーニング・ストラテジー (Active Learning Strategy) は、少数の未学習サンプルを監督することによる問題解決を目的としている。
ほとんどの戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
ここではドメイン知識を考慮した,まったく異なるアプローチを提案する。
知識駆動型戦略が標準的な戦略より優れていることを実証的に実証する。
- 参考スコア(独自算出の注目度): 16.908970779143267
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In the last few years, Deep Learning models have become increasingly popular.
However, their deployment is still precluded in those contexts where the amount
of supervised data is limited and manual labelling expensive. Active learning
strategies aim at solving this problem by requiring supervision only on few
unlabelled samples, which improve the most model performances after adding them
to the training set. Most strategies are based on uncertain sample selection,
and even often restricted to samples lying close to the decision boundary. Here
we propose a very different approach, taking into consideration domain
knowledge. Indeed, in the case of multi-label classification, the relationships
among classes offer a way to spot incoherent predictions, i.e., predictions
where the model may most likely need supervision. We have developed a framework
where first-order-logic knowledge is converted into constraints and their
violation is checked as a natural guide for sample selection. We empirically
demonstrate that knowledge-driven strategy outperforms standard strategies,
particularly on those datasets where domain knowledge is complete. Furthermore,
we show how the proposed approach enables discovering data distributions lying
far from training data. Finally, the proposed knowledge-driven strategy can be
also easily used in object-detection problems where standard uncertainty-based
techniques are difficult to apply.
- Abstract(参考訳): ここ数年、ディープラーニングモデルはますます人気を集めています。
しかしながら、教師付きデータの量が制限され、手動のラベル付けが高価である状況では、デプロイメントはいまだに不可能である。
アクティブ・ラーニング・ストラテジーは、トレーニングセットに追加した後、最もモデルのパフォーマンスを改善するため、少数のサンプルのみを監督することによるこの問題の解決を目指している。
ほとんどの戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
ここではドメイン知識を考慮した,まったく異なるアプローチを提案する。
実際、マルチラベル分類の場合、クラス間の関係は一貫性のない予測、すなわちモデルが監督を必要とする可能性のある予測を見つける方法を提供する。
我々は,一階論理知識を制約に変換し,それらの違反をサンプル選択の自然なガイドとしてチェックするフレームワークを開発した。
我々は、知識駆動戦略が標準戦略、特にドメイン知識が完全であるデータセットよりも優れていることを実証的に示す。
さらに,提案手法により,学習データから遠く離れたデータ分布を発見できることを示す。
最後に、提案する知識駆動戦略は、標準の不確実性に基づく手法の適用が難しいオブジェクト検出問題でも容易に使用できる。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Frugal Reinforcement-based Active Learning [12.18340575383456]
本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
論文 参考訳(メタデータ) (2022-12-09T14:17:45Z) - Reinforced Meta Active Learning [11.913086438671357]
本稿では,データから直接情報提供度を学習する,オンラインストリームに基づくメタアクティブ学習手法を提案する。
本手法は、強化学習に基づいて、エピソードポリシー検索と文脈的バンディットアプローチを組み合わせたものである。
本研究では,本手法が既存の最先端手法よりも効率的にトレーニングサンプルを選択できることを実データで示す。
論文 参考訳(メタデータ) (2022-03-09T08:36:54Z) - Multicriteria interpretability driven Deep Learning [0.0]
ディープラーニングの手法はパフォーマンスで有名だが、その解釈可能性の欠如は、高い文脈での学習を妨げている。
近年のモデル手法では、モデルの内部動作をリバースエンジニアリングすることで、ポストホック解釈可能性法を提供することでこの問題に対処している。
本稿では,目的関数に知識を注入することで,モデルの結果に特徴的影響を制御できるマルチクレータ非依存手法を提案する。
論文 参考訳(メタデータ) (2021-11-28T09:41:13Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z) - Ask-n-Learn: Active Learning via Reliable Gradient Representations for
Image Classification [29.43017692274488]
深い予測モデルは、ラベル付きトレーニングデータという形で人間の監督に依存する。
Ask-n-Learnは,各アルゴリズムで推定されたペスドラベルを用いて得られる勾配埋め込みに基づく能動的学習手法である。
論文 参考訳(メタデータ) (2020-09-30T05:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。