論文の概要: Knowledge-driven Active Learning
- arxiv url: http://arxiv.org/abs/2110.08265v4
- Date: Fri, 16 Jun 2023 17:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 18:44:16.084310
- Title: Knowledge-driven Active Learning
- Title(参考訳): 知識駆動アクティブラーニング
- Authors: Gabriele Ciravegna, Fr\'ed\'eric Precioso, Alessandro Betti, Kevin
Mottin, Marco Gori
- Abstract要約: アクティブな学習戦略は、ディープラーニングモデルをトレーニングするために必要なラベル付きデータの量を最小限にすることを目的としている。
ほとんどの積極的な戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
本稿では、一般的なドメイン知識を考慮し、エキスパートでないユーザがより少ないサンプルでモデルを訓練できるようにする。
- 参考スコア(独自算出の注目度): 70.37119719069499
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The deployment of Deep Learning (DL) models is still precluded in those
contexts where the amount of supervised data is limited. To answer this issue,
active learning strategies aim at minimizing the amount of labelled data
required to train a DL model. Most active strategies are based on uncertain
sample selection, and even often restricted to samples lying close to the
decision boundary. These techniques are theoretically sound, but an
understanding of the selected samples based on their content is not
straightforward, further driving non-experts to consider DL as a black-box. For
the first time, here we propose to take into consideration common
domain-knowledge and enable non-expert users to train a model with fewer
samples. In our Knowledge-driven Active Learning (KAL) framework, rule-based
knowledge is converted into logic constraints and their violation is checked as
a natural guide for sample selection. We show that even simple relationships
among data and output classes offer a way to spot predictions for which the
model need supervision. We empirically show that KAL (i) outperforms many
active learning strategies, particularly in those contexts where domain
knowledge is rich, (ii) it discovers data distribution lying far from the
initial training data, (iii) it ensures domain experts that the provided
knowledge is acquired by the model, (iv) it is suitable for regression and
object recognition tasks unlike uncertainty-based strategies, and (v) its
computational demand is low.
- Abstract(参考訳): 深層学習(DL)モデルの展開は、教師付きデータの量が限られている状況では、いまだに禁止されている。
この問題に対処するために、アクティブラーニング戦略は、dlモデルのトレーニングに必要なラベル付きデータの量を最小化することを目的としている。
ほとんどのアクティブ戦略は不確定なサンプル選択に基づいており、しばしば決定境界に近いサンプルに限定される。
これらのテクニックは理論的には健全であるが、その内容に基づいて選択されたサンプルを理解することは単純ではない。
ここでは、まず、共通のドメイン知識を考慮し、非専門家ユーザが少ないサンプルでモデルをトレーニングできるようにする。
当社の知識駆動アクティブラーニング(kal)フレームワークでは、ルールベースの知識を論理制約に変換し、それらの違反をサンプル選択の自然なガイドとしてチェックします。
データと出力クラスの間の単純な関係でさえ、モデルが監督を必要とする予測を見つける方法を提供する。
私たちは経験的に、KALは
i) ドメイン知識が豊富である状況において、多くのアクティブな学習戦略を上回ります。
(ii)初期訓練データから遠く離れているデータ分布を検出する。
(iii)提供された知識がモデルによって獲得されることをドメインの専門家に保証する。
(iv)不確実性に基づく戦略と異なり、回帰や物体認識に適しており、
(v)その計算需要は低い。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Frugal Reinforcement-based Active Learning [12.18340575383456]
本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
論文 参考訳(メタデータ) (2022-12-09T14:17:45Z) - Reinforced Meta Active Learning [11.913086438671357]
本稿では,データから直接情報提供度を学習する,オンラインストリームに基づくメタアクティブ学習手法を提案する。
本手法は、強化学習に基づいて、エピソードポリシー検索と文脈的バンディットアプローチを組み合わせたものである。
本研究では,本手法が既存の最先端手法よりも効率的にトレーニングサンプルを選択できることを実データで示す。
論文 参考訳(メタデータ) (2022-03-09T08:36:54Z) - Multicriteria interpretability driven Deep Learning [0.0]
ディープラーニングの手法はパフォーマンスで有名だが、その解釈可能性の欠如は、高い文脈での学習を妨げている。
近年のモデル手法では、モデルの内部動作をリバースエンジニアリングすることで、ポストホック解釈可能性法を提供することでこの問題に対処している。
本稿では,目的関数に知識を注入することで,モデルの結果に特徴的影響を制御できるマルチクレータ非依存手法を提案する。
論文 参考訳(メタデータ) (2021-11-28T09:41:13Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z) - Ask-n-Learn: Active Learning via Reliable Gradient Representations for
Image Classification [29.43017692274488]
深い予測モデルは、ラベル付きトレーニングデータという形で人間の監督に依存する。
Ask-n-Learnは,各アルゴリズムで推定されたペスドラベルを用いて得られる勾配埋め込みに基づく能動的学習手法である。
論文 参考訳(メタデータ) (2020-09-30T05:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。