論文の概要: A Scalable and Efficient Iterative Method for Copying Machine Learning
Classifiers
- arxiv url: http://arxiv.org/abs/2302.02667v1
- Date: Mon, 6 Feb 2023 10:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 17:07:06.812740
- Title: A Scalable and Efficient Iterative Method for Copying Machine Learning
Classifiers
- Title(参考訳): スケーラブルで効率的な機械学習分類器の複製法
- Authors: Nahuel Statuto, Irene Unceta, Jordi Nin and Oriol Pujol
- Abstract要約: 本稿では,機械学習モデルのコピーのトレーニングや維持に必要な計算資源を大幅に削減する,新しいシーケンシャルなアプローチを提案する。
シーケンシャルアプローチの有効性は、合成データセットと実世界のデータセットによる実験を通じて実証され、正確性を維持したり改善したりしながら、時間とリソースの大幅な削減を示す。
- 参考スコア(独自算出の注目度): 0.802904964931021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential replication through copying refers to the process of replicating
the decision behavior of a machine learning model using another model that
possesses enhanced features and attributes. This process is relevant when
external constraints limit the performance of an industrial predictive system.
Under such circumstances, copying enables the retention of original prediction
capabilities while adapting to new demands. Previous research has focused on
the single-pass implementation for copying. This paper introduces a novel
sequential approach that significantly reduces the amount of computational
resources needed to train or maintain a copy, leading to reduced maintenance
costs for companies using machine learning models in production. The
effectiveness of the sequential approach is demonstrated through experiments
with synthetic and real-world datasets, showing significant reductions in time
and resources, while maintaining or improving accuracy.
- Abstract(参考訳): 複製による差分レプリケーションは、強化された特徴と属性を持つ別のモデルを使用して、機械学習モデルの決定行動を複製するプロセスを指す。
このプロセスは、外部制約が産業予測システムの性能を制限する場合に関係する。
このような状況下では、コピーは、新しい要求に適応しながら、元の予測能力を維持できる。
これまでの研究はコピーのためのシングルパス実装にフォーカスしてきた。
本稿では,複製の訓練や維持に要する計算資源の量を大幅に削減し,本番環境での機械学習モデルを使用する企業のメンテナンスコストを低減させる,新たな逐次的手法を提案する。
シーケンシャルアプローチの有効性は、合成データと実世界のデータセットを用いた実験を通じて実証され、正確性を維持しつつ、時間とリソースの大幅な削減を示す。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Adjusting Pretrained Backbones for Performativity [34.390793811659556]
本稿では,事前学習したバックボーンをモジュラー方式で演奏性に適応させる新しい手法を提案する。
再学習軌道に沿った損失を減らし、候補モデルの中から効果的に選択し、性能劣化を予測できることを示す。
論文 参考訳(メタデータ) (2024-10-06T14:41:13Z) - Dataset Condensation Driven Machine Unlearning [0.0]
データ規制要件とプライバシ保護機械学習の現在のトレンドは、機械学習の重要性を強調している。
我々は,機械学習のプライバシ,ユーティリティ,効率のバランスをとるために,新しいデータセット凝縮手法と革新的なアンラーニング手法を提案する。
本稿では,機械のアンラーニングを計測するための新しい効果的なアプローチを提案し,その適用方法として,メンバシップ推論とモデル逆転攻撃の防御を提案する。
論文 参考訳(メタデータ) (2024-01-31T21:48:25Z) - Pseudo Replay-based Class Continual Learning for Online New Category Anomaly Detection in Advanced Manufacturing [5.012204041812572]
本稿では,新しい擬似リプレイ型連続学習フレームワークを開発する。
クラスインクリメンタル学習とオーバーサンプリングベースのデータ生成を統合している。
提案手法の有効性を3つのケーススタディで検証した。
論文 参考訳(メタデータ) (2023-12-05T04:43:23Z) - Continual Learning of Diffusion Models with Generative Distillation [34.52513912701778]
拡散モデルは画像合成における最先端性能を達成する強力な生成モデルである。
本稿では,拡散モデルの全逆過程を除去する生成蒸留法を提案する。
論文 参考訳(メタデータ) (2023-11-23T14:33:03Z) - Uncovering the Hidden Cost of Model Compression [43.62624133952414]
視覚プロンプティングは、コンピュータビジョンにおける伝達学習の重要な方法として登場した。
モデル圧縮は視覚的プロンプトベース転送の性能に有害である。
しかし、量子化によってモデルが圧縮されるとき、キャリブレーションに対する負の効果は存在しない。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z) - PROM: A Phrase-level Copying Mechanism with Pre-training for Abstractive
Summarization [139.242907155883]
本研究は,n-gramの注目度を高める新しいPhRaseレベルのcOpying機構であるPROMを提案する。
PROMは、ソースからコピーできるn-gramのトークンを明示的にピックアップするインジケータ層を追加し、コピー予測の補助損失を算出する。
ゼロショット設定では、PROMは生コーパスの自己教師付き事前学習に利用され、広範囲の要約データセットに新しい一般的なベースラインを提供する。
論文 参考訳(メタデータ) (2023-05-11T08:29:05Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - On the Copying Behaviors of Pre-Training for Neural Machine Translation [63.914940899327966]
これまでの研究で、ニューラルネットワーク翻訳(NMT)モデルを事前訓練言語モデル(LM)で初期化することは、モデルのトレーニングを高速化し、モデル性能を向上させることが示されている。
本研究では,NMTのトレーニング目標とNMTの訓練目標との相違から,NMTの事前訓練における重要な副作用を同定する。
本稿では,復号における複写動作を制御するために,複写ペナルティ(copying penalty)というシンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-07-17T10:02:30Z) - On Learning Text Style Transfer with Direct Rewards [101.97136885111037]
平行コーパスの欠如により、テキストスタイルの転送タスクの教師付きモデルを直接訓練することは不可能である。
我々は、当初、微調整されたニューラルマシン翻訳モデルに使用されていた意味的類似度指標を活用している。
我々のモデルは、強いベースラインに対する自動評価と人的評価の両方において大きな利益をもたらす。
論文 参考訳(メタデータ) (2020-10-24T04:30:02Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。