論文の概要: Adaptive scheduling for adaptive sampling in POS taggers construction
- arxiv url: http://arxiv.org/abs/2402.02516v1
- Date: Sun, 4 Feb 2024 15:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 19:13:05.979569
- Title: Adaptive scheduling for adaptive sampling in POS taggers construction
- Title(参考訳): POSタグ作成における適応サンプリングのための適応スケジューリング
- Authors: Manuel Vilares Ferro, Victor M. Darriba Bilbao, Jes\'us Vilares Ferro
- Abstract要約: 音声タグ作成における機械学習の新たな手法として適応的サンプリングのための適応的スケジューリングを提案する。
本研究では,関数モデルとともに幾何学的に学習曲線の形状を分析し,任意のタイミングで学習曲線を増減する。
また,評価の一時的なインフレーションを受けるトレーニングデータベースの領域に注意を払い,サンプリングの堅牢性も向上する。
- 参考スコア(独自算出の注目度): 0.27624021966289597
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce an adaptive scheduling for adaptive sampling as a novel way of
machine learning in the construction of part-of-speech taggers. The goal is to
speed up the training on large data sets, without significant loss of
performance with regard to an optimal configuration. In contrast to previous
methods using a random, fixed or regularly rising spacing between the
instances, ours analyzes the shape of the learning curve geometrically in
conjunction with a functional model to increase or decrease it at any time. The
algorithm proves to be formally correct regarding our working hypotheses.
Namely, given a case, the following one is the nearest ensuring a net gain of
learning ability from the former, it being possible to modulate the level of
requirement for this condition. We also improve the robustness of sampling by
paying greater attention to those regions of the training data base subject to
a temporary inflation in performance, thus preventing the learning from
stopping prematurely.
The proposal has been evaluated on the basis of its reliability to identify
the convergence of models, corroborating our expectations. While a concrete
halting condition is used for testing, users can choose any condition
whatsoever to suit their own specific needs.
- Abstract(参考訳): 本稿では,機械学習の新たな手法として,適応サンプリングのための適応スケジューリングを提案する。
目標は、最適な構成に関してパフォーマンスを損なうことなく、大規模なデータセットでのトレーニングをスピードアップすることである。
ケース間のランダム, 固定, 定期的に上昇する間隔を用いた従来の手法とは対照的に, 本研究では, 関数モデルとともに幾何学的に学習曲線の形状を分析して, 任意のタイミングで増加あるいは減少させる。
このアルゴリズムは、我々の作業仮説について正式に正しいことを証明している。
すなわち、例えば、次のものが前者から学習能力の純利を確実に確保する最も近いものである場合、この条件の要求レベルを調節することが可能である。
また,性能の一時的なインフレーションを受けるトレーニングデータベースのこれらの領域に注意を払うことで,学習の早期停止を防止し,サンプリングの堅牢性を向上させる。
この提案はモデルの収束を識別する信頼性に基づいて評価され、我々の期待と一致している。
具体的な停止条件はテストに使用されるが、ユーザーは特定のニーズに合った任意の条件を選択できる。
関連論文リスト
- Adaptive Cascading Network for Continual Test-Time Adaptation [12.718826132518577]
そこで本研究では,テスト時に対象ドメインの列に事前学習したソースモデルを適応させることを目標とする連続的なテスト時間適応の問題について検討する。
テストタイムトレーニングの既存の方法には、いくつかの制限がある。
論文 参考訳(メタデータ) (2024-07-17T01:12:57Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - Absolute convergence and error thresholds in non-active adaptive
sampling [0.27624021966289597]
非アクティブ適応サンプリングは、トレーニングベースから機械学習モデルを構築する方法である。
絶対収束と誤差しきい値を計算するための提案について述べる。
テストは私たちの期待に応え、自然言語処理の領域における提案を説明する。
論文 参考訳(メタデータ) (2024-02-04T15:10:34Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Adaptive Sparse Gaussian Process [0.0]
これらの問題に対処できる最初の適応スパースガウスプロセス(GP)を提案する。
まず,変分スパースGPアルゴリズムを変形係数によって適応的に再構成する。
そこで我々は,新しいサンプルが到着するたびに,スパースGPモデルの単一誘導点と残りのモデルパラメータを同時に更新することを提案する。
論文 参考訳(メタデータ) (2023-02-20T21:34:36Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Parameter-free Online Test-time Adaptation [19.279048049267388]
実世界の様々なシナリオにおいて,テスト時間適応手法が事前学習されたモデルにどのような効果をもたらすかを示す。
我々は特に「保守的」なアプローチを提案し、ラプラシアン適応最大推定(LAME)を用いてこの問題に対処する。
提案手法では,既存の手法よりもシナリオの平均精度がはるかに高く,メモリフットプリントもはるかに高速である。
論文 参考訳(メタデータ) (2022-01-15T00:29:16Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。