論文の概要: Parameter-tuning-free data entry error unlearning with adaptive
selective synaptic dampening
- arxiv url: http://arxiv.org/abs/2402.10098v1
- Date: Tue, 6 Feb 2024 14:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 12:40:20.944691
- Title: Parameter-tuning-free data entry error unlearning with adaptive
selective synaptic dampening
- Title(参考訳): 適応的な選択的シナプス減衰によるパラメータチューニングフリーデータ入力誤りの学習
- Authors: Stefan Schoepf, Jack Foster, Alexandra Brintrup
- Abstract要約: 本稿では,パラメータチューニングの必要性を排除した選択的シナプス減衰アンラーニング法の拡張を提案する。
本稿では,ResNet18とVision Transformerの未学習タスクにおける適応選択的シナプス減衰(ASSD)の性能を示す。
このアプローチの適用は、サプライチェーン管理などの産業環境において特に魅力的である。
- 参考スコア(独自算出の注目度): 51.34904967046097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data entry constitutes a fundamental component of the machine learning
pipeline, yet it frequently results in the introduction of labelling errors.
When a model has been trained on a dataset containing such errors its
performance is reduced. This leads to the challenge of efficiently unlearning
the influence of the erroneous data to improve the model performance without
needing to completely retrain the model. While model editing methods exist for
cases in which the correct label for a wrong entry is known, we focus on the
case of data entry errors where we do not know the correct labels for the
erroneous data. Our contribution is twofold. First, we introduce an extension
to the selective synaptic dampening unlearning method that removes the need for
parameter tuning, making unlearning accessible to practitioners. We demonstrate
the performance of this extension, adaptive selective synaptic dampening
(ASSD), on various ResNet18 and Vision Transformer unlearning tasks. Second, we
demonstrate the performance of ASSD in a supply chain delay prediction problem
with labelling errors using real-world data where we randomly introduce various
levels of labelling errors. The application of this approach is particularly
compelling in industrial settings, such as supply chain management, where a
significant portion of data entry occurs manually through Excel sheets,
rendering it error-prone. ASSD shows strong performance on general unlearning
benchmarks and on the error correction problem where it outperforms fine-tuning
for error correction.
- Abstract(参考訳): データ入力は機械学習パイプラインの基本コンポーネントを構成するが、しばしばラベルエラーが発生する。
このようなエラーを含むデータセットでモデルがトレーニングされた場合、そのパフォーマンスは低下する。
これにより、モデルを完全に再トレーニングすることなく、誤ったデータの影響を効率よく学び、モデルのパフォーマンスを改善することが困難になる。
間違ったエントリの正しいラベルが知られている場合、モデル編集方法が存在するが、誤ったデータに対する正しいラベルを知らないデータ入力エラーの場合に焦点を当てる。
私たちの貢献は2倍です。
まず,選択的シナプス減衰アンラーニング法の拡張を行い,パラメータチューニングの必要性を排除し,実践者が学べるようにした。
本稿では,ResNet18とVision Transformerの未学習タスクにおける適応選択的シナプス減衰(ASSD)の性能を示す。
次に,実世界データを用いたラベリング誤差を伴うサプライチェーン遅延予測問題において,様々なラベリング誤差のレベルをランダムに導入したasdの性能を示す。
このアプローチの適用は、特にサプライチェーン管理のような、excelシートを介してデータ入力のかなりの部分が手動で発生し、エラーが発生しやすい産業環境では魅力的である。
ASSDは、一般的なアンラーニングベンチマークや、誤り訂正のための微調整に優れるエラー訂正問題に強い性能を示す。
関連論文リスト
- Tag and correct: high precision post-editing approach to correction of speech recognition errors [0.0]
ASR(Automatic Speech Recognition)仮説の単語を単語単位で修正する方法を学ぶニューラルネットワークタグと、タグによって返される修正を適用する修正モジュールとから構成される。
提案手法はアーキテクチャによらず,任意のASRシステムに適用可能である。
論文 参考訳(メタデータ) (2024-06-11T09:52:33Z) - Efficient Grammatical Error Correction Via Multi-Task Training and
Optimized Training Schedule [55.08778142798106]
原文と修正文のアライメントを利用する補助タスクを提案する。
我々は,各タスクをシーケンス・ツー・シーケンス問題として定式化し,マルチタスク・トレーニングを行う。
トレーニングに使用されるデータセットの順序や、データセット内の個々のインスタンスでさえ、最終的なパフォーマンスに重要な影響を与える可能性があることが分かりました。
論文 参考訳(メタデータ) (2023-11-20T14:50:12Z) - Generalizable Error Modeling for Search Relevance Data Annotation Tasks [0.0]
人間のデータアノテーションは、機械学習(ML)と人工知能(AI)システムの品質を形成する上で重要である。
この文脈における重要な課題の1つは、MLモデルの性能が低下する可能性があるため、アノテーションエラーによって引き起こされることである。
本稿では,3つの産業規模のMLアプリケーションを対象とした検索関連アノテーションタスクにおいて,潜在的なエラーを検出するよう訓練された予測誤差モデルを提案する。
論文 参考訳(メタデータ) (2023-10-08T21:21:19Z) - Improving Opinion-based Question Answering Systems Through Label Error
Detection and Overwrite [4.894035903847371]
本稿では,ラベル誤り検出とオーバーライトのためのモデルに依存しない,計算的に効率的なフレームワーク LEDO を提案する。
LEDOはモンテカルロ・ドロップアウトと不確実性メトリクスを組み合わせており、複数のタスクやデータセットに簡単に一般化できる。
LEDOを業界意見に基づく質問応答システムに適用することは、すべてのコアモデルの精度を向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2023-06-13T02:20:58Z) - LegoNet: A Fast and Exact Unlearning Architecture [59.49058450583149]
機械学習は、トレーニングされたモデルから削除された要求に対する特定のトレーニングサンプルの影響を削除することを目的としている。
固定エンコーダ+複数アダプタのフレームワークを採用した新しいネットワークである textitLegoNet を提案する。
我々は、LegoNetが許容できる性能を維持しつつ、高速かつ正確な未学習を実現し、未学習のベースラインを総合的に上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-28T09:53:05Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese
Grammatical Error Correction [49.25830718574892]
本稿では,Tail-to-Tail (textbfTtT) という新しいフレームワークを提案する。
ほとんどのトークンが正しいので、ソースからターゲットに直接転送でき、エラー位置を推定して修正することができる。
標準データセット、特に可変長データセットに関する実験結果は、文レベルの精度、精度、リコール、F1-Measureの観点からTtTの有効性を示す。
論文 参考訳(メタデータ) (2021-06-03T05:56:57Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。