論文の概要: Exploring the Possibility of TypiClust for Low-Budget Federated Active Learning
- arxiv url: http://arxiv.org/abs/2505.19404v1
- Date: Mon, 26 May 2025 01:40:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.096623
- Title: Exploring the Possibility of TypiClust for Low-Budget Federated Active Learning
- Title(参考訳): 低予算フェデレーションアクティブラーニングにおけるTypiClustの可能性を探る
- Authors: Yuta Ono, Hiroshi Nakamura, Hideki Takase,
- Abstract要約: FAL(Federated Active Learning)は、アクティブラーニング(AL)を活用したアノテーションの負担軽減を目指す。
低予算FAL設定における低予算AL戦略であるTypiClustの有効性を検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Active Learning (FAL) seeks to reduce the burden of annotation under the realistic constraints of federated learning by leveraging Active Learning (AL). As FAL settings make it more expensive to obtain ground truth labels, FAL strategies that work well in low-budget regimes, where the amount of annotation is very limited, are needed. In this work, we investigate the effectiveness of TypiClust, a successful low-budget AL strategy, in low-budget FAL settings. Our empirical results show that TypiClust works well even in low-budget FAL settings contrasted with relatively low performances of other methods, although these settings present additional challenges, such as data heterogeneity, compared to AL. In addition, we show that FAL settings cause distribution shifts in terms of typicality, but TypiClust is not very vulnerable to the shifts. We also analyze the sensitivity of TypiClust to feature extraction methods, and it suggests a way to perform FAL even in limited data situations.
- Abstract(参考訳): フェデレーテッド・アクティブ・ラーニング(FAL)は、アクティブ・ラーニング(AL)を活用して、フェデレーテッド・ラーニングの現実的な制約の下でアノテーションの負担を軽減することを目指している。
FAL設定により、基礎的な真理ラベルを得るのがより高価になるため、アノテーションの量が非常に限られている低予算のレジームでうまく機能するFAL戦略が必要である。
本研究では,低予算FALにおける低予算AL戦略であるTypiClustの有効性を検討する。
実験の結果,TypiClustは低予算のFAL設定でも他の手法の比較的低性能とは対照的に有効であることがわかった。
さらに、FAL設定が典型的に分布シフトを引き起こすことを示すが、TypiClustはシフトに対してあまり脆弱ではない。
また,特徴抽出法に対するTypiClustの感度分析を行い,限られたデータ状況においてもFALを実行する方法を提案する。
関連論文リスト
- Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - A Channel-ensemble Approach: Unbiased and Low-variance Pseudo-labels is Critical for Semi-supervised Classification [61.473485511491795]
半教師付き学習(SSL)はコンピュータビジョンにおける実践的な課題である。
Pseudo-label (PL) メソッド、例えば FixMatch や FreeMatch は SSL で State of The Art (SOTA) のパフォーマンスを取得する。
本稿では,複数の下位PLを理論的に保証された非偏りと低分散のPLに集約する,軽量なチャネルベースアンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:49:37Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Parameter-Efficient Language Model Tuning with Active Learning in
Low-Resource Settings [3.490038106567192]
テキスト分類タスクの低リソース設定におけるアクティブラーニング(AL)とパラメータ効率細調整(PEFT)の相互作用について検討した。
本研究は,低リソース環境下でのFFTよりもPEFTの方が優れていることを実証し,この利点がAL設定で持続することを示した。
本研究は、低リソース環境におけるALとPEFTの相乗的ポテンシャルを強調し、効率的かつ効果的な微調整の進歩の道を開くものである。
論文 参考訳(メタデータ) (2023-05-23T23:27:20Z) - An Empirical Study on the Efficacy of Deep Active Learning for Image
Classification [11.398892277968427]
ディープアクティブラーニング(DAL)は、教師あり学習におけるラベリングコストを削減するための有望な方法として提唱されている。
既存のDAL手法の評価は異なる設定に基づいており、その結果は議論の余地がある。
本稿では,19の既存DAL手法を一様条件で総合的に評価する。
論文 参考訳(メタデータ) (2022-11-30T17:44:59Z) - Adversarial Training with Complementary Labels: On the Benefit of
Gradually Informative Attacks [119.38992029332883]
不完全な監督を伴う敵の訓練は重要であるが、注意は限られている。
我々は、徐々に情報的攻撃を用いた新しい学習戦略を提案する。
提案手法の有効性を,ベンチマークデータセットを用いて実証する実験を行った。
論文 参考訳(メタデータ) (2022-11-01T04:26:45Z) - Fair Robust Active Learning by Joint Inconsistency [22.150782414035422]
本稿では,従来のFALと対角的堅牢性を統合したFAL(Fair Robust Active Learning)を提案する。
関節不整合(JIN)による簡易かつ効果的なFRAL戦略の開発
本手法は, 良性サンプルと逆性サンプルと, 標準モデルとロバストモデルとの整合性の予測を利用する。
論文 参考訳(メタデータ) (2022-09-22T01:56:41Z) - FAL-CUR: Fair Active Learning using Uncertainty and Representativeness
on Fair Clustering [16.808400593594435]
フェアクラスタリング,不確実性,代表性(FAL-CUR)を用いたフェアアクティブラーニングという新しい戦略を提案する。
FAL-CURは、均等化オッズの観点から、最先端の手法と比較して、公正度が15%から20%向上する。
A blation study is highlights the important role of fair clustering inserving fairness and the acquisition function in stabilizing the accuracy performance。
論文 参考訳(メタデータ) (2022-09-21T08:28:43Z) - A Comparative Survey of Deep Active Learning [76.04825433362709]
Active Learning (AL)は、ラベル付けのための大きなラベル付けされていないデータプールからデータサンプルを順次選択することで、ラベル付けコストを削減するための一連のテクニックである。
ディープラーニング(DL)はデータハングリーであり、DLモデルのパフォーマンスは、より多くのトレーニングデータとともに単調にスケールする。
近年、Deep Active Learning (DAL) は、高価なラベリングコストを最小化しつつ、モデル性能を最大化するための実現可能なソリューションとして上昇している。
論文 参考訳(メタデータ) (2022-03-25T05:17:24Z) - Federated Active Learning (F-AL): an Efficient Annotation Strategy for
Federated Learning [8.060606972572451]
フェデレーテッド・ラーニング(FL)は、コミュニケーション効率、プライバシ、公平性の観点から、集中的に研究されている。
本稿では、FLフレームワークにアクティブラーニング(AL)とサンプリング戦略を適用し、アノテーションの作業量を削減することを提案する。
画像分類タスクにおいて,F-ALがベースライン法より優れていることを示す。
論文 参考訳(メタデータ) (2022-02-01T03:17:29Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。