論文の概要: Sample Noise Impact on Active Learning
- arxiv url: http://arxiv.org/abs/2109.01372v1
- Date: Fri, 3 Sep 2021 08:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 14:05:05.269801
- Title: Sample Noise Impact on Active Learning
- Title(参考訳): サンプルノイズがアクティブラーニングに与える影響
- Authors: Alexandre Abraham and L\'eo Dreyfus-Schmidt
- Abstract要約: 本研究は,アクティブラーニング戦略におけるノイズの多いサンプル選択の効果について検討する。
サンプルノイズの知識がアクティブな学習戦略の性能を著しく向上させることができることを,合成問題と実生活利用事例の両方に示す。
- 参考スコア(独自算出の注目度): 77.99796068970569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work explores the effect of noisy sample selection in active learning
strategies. We show on both synthetic problems and real-life use-cases that
knowledge of the sample noise can significantly improve the performance of
active learning strategies. Building on prior work, we propose a robust
sampler, Incremental Weighted K-Means that brings significant improvement on
the synthetic tasks but only a marginal uplift on real-life ones. We hope that
the questions raised in this paper are of interest to the community and could
open new paths for active learning research.
- Abstract(参考訳): 本研究は,アクティブラーニング戦略におけるノイズサンプル選択の効果を考察する。
サンプルノイズの知識がアクティブな学習戦略の性能を著しく向上させることができることを,合成問題と実生活利用事例の両方に示す。
先行研究に基づき,合成タスクに大幅な改善をもたらすが,実生活における限界上昇のみをもたらす,頑健なサンプルスタ,インクリメンタル重み付きk平均を提案する。
この論文で提起された質問はコミュニティにとって関心があり、アクティブラーニング研究のための新しい道を開くことができることを願っている。
関連論文リスト
- Enhancing Noise Robustness of Retrieval-Augmented Language Models with Adaptive Adversarial Training [39.21885486667879]
大型言語モデル(LLM)は、幻覚、時代遅れの知識、追跡不能な推論プロセスなどの課題に遭遇する重大な能力を示す。
Retrieval-augmented Generation(RAG)は、これらの課題を軽減するために、外部データベースからの知識を統合する、有望なソリューションとして登場した。
本稿では,RAAT(Retrieval-augmented Adaptive Adrial Training)として知られる新しいRAGアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-31T16:24:53Z) - Enhancing Q-Learning with Large Language Model Heuristics [0.0]
大規模言語モデル(LLM)は、単純なタスクでゼロショット学習を達成できるが、推論速度の低下と時折幻覚に悩まされる。
我々は,LLMを幻覚として活用し,強化学習のためのQ関数の学習を支援するフレームワークであるtextbfLLM-guided Q-learningを提案する。
論文 参考訳(メタデータ) (2024-05-06T10:42:28Z) - Deep Active Learning: A Reality Check [30.19086526296748]
単一モデル法はエントロピーに基づくアクティブラーニングを決定的に上回るものではない。
評価を他のタスクに拡張し、半教師付き学習と組み合わせて能動的学習の有効性を探求する。
論文 参考訳(メタデータ) (2024-03-21T19:28:17Z) - Transfer and Active Learning for Dissonance Detection: Addressing the
Rare-Class Challenge [7.61140479230184]
本稿では,不協和検出の希少クラス問題に対する移動学習および能動的学習ソリューションの提案と検討を行う。
我々は、ソーシャルメディアから認知不協和の言語サンプルを収集する、特定のまれなクラス問題に対する実験を行う。
提案手法は,アノテーションをガイドし,最終的にモデルの精度を向上させるためのシンプルで効果的な戦略である。
論文 参考訳(メタデータ) (2023-05-03T23:29:05Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Mind Your Outliers! Investigating the Negative Impact of Outliers on
Active Learning for Visual Question Answering [71.15403434929915]
視覚的質問応答のタスクにおいて、5つのモデルと4つのデータセットにまたがって、多種多様な能動的学習アプローチがランダム選択を上回りません。
アクティブな学習手法が好まれるが、モデルは学習に失敗する例の集まりである。
本研究では,アクティブ学習プールにおける集団外乱の減少に伴い,アクティブ学習サンプル効率が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-07-06T00:52:11Z) - Rebuilding Trust in Active Learning with Actionable Metrics [77.99796068970569]
アクティブラーニング(AL)は研究の活発な領域であるが、プレッシャーのあるニーズにもかかわらず、業界ではほとんど使われない。
これは部分的には目的のずれによるものであり、研究は選択したデータセットで最高の結果を得るよう努力している。
積極的学習における産業実践者の信頼回復を支援するために,様々な活動可能な指標を提示する。
論文 参考訳(メタデータ) (2020-12-18T09:34:59Z) - Bayesian active learning for production, a systematic study and a
reusable library [85.32971950095742]
本稿では,現在のアクティブラーニング技術の主な欠点について分析する。
実世界のデータセットの最も一般的な課題が深層能動学習プロセスに与える影響について,系統的研究を行った。
部分的不確実性サンプリングやより大きいクエリサイズといった,アクティブな学習ループを高速化する2つの手法を導出する。
論文 参考訳(メタデータ) (2020-06-17T14:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。