論文の概要: A Scalable and Efficient Iterative Method for Copying Machine Learning
Classifiers
- arxiv url: http://arxiv.org/abs/2302.02667v1
- Date: Mon, 6 Feb 2023 10:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 17:07:06.812740
- Title: A Scalable and Efficient Iterative Method for Copying Machine Learning
Classifiers
- Title(参考訳): スケーラブルで効率的な機械学習分類器の複製法
- Authors: Nahuel Statuto, Irene Unceta, Jordi Nin and Oriol Pujol
- Abstract要約: 本稿では,機械学習モデルのコピーのトレーニングや維持に必要な計算資源を大幅に削減する,新しいシーケンシャルなアプローチを提案する。
シーケンシャルアプローチの有効性は、合成データセットと実世界のデータセットによる実験を通じて実証され、正確性を維持したり改善したりしながら、時間とリソースの大幅な削減を示す。
- 参考スコア(独自算出の注目度): 0.802904964931021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential replication through copying refers to the process of replicating
the decision behavior of a machine learning model using another model that
possesses enhanced features and attributes. This process is relevant when
external constraints limit the performance of an industrial predictive system.
Under such circumstances, copying enables the retention of original prediction
capabilities while adapting to new demands. Previous research has focused on
the single-pass implementation for copying. This paper introduces a novel
sequential approach that significantly reduces the amount of computational
resources needed to train or maintain a copy, leading to reduced maintenance
costs for companies using machine learning models in production. The
effectiveness of the sequential approach is demonstrated through experiments
with synthetic and real-world datasets, showing significant reductions in time
and resources, while maintaining or improving accuracy.
- Abstract(参考訳): 複製による差分レプリケーションは、強化された特徴と属性を持つ別のモデルを使用して、機械学習モデルの決定行動を複製するプロセスを指す。
このプロセスは、外部制約が産業予測システムの性能を制限する場合に関係する。
このような状況下では、コピーは、新しい要求に適応しながら、元の予測能力を維持できる。
これまでの研究はコピーのためのシングルパス実装にフォーカスしてきた。
本稿では,複製の訓練や維持に要する計算資源の量を大幅に削減し,本番環境での機械学習モデルを使用する企業のメンテナンスコストを低減させる,新たな逐次的手法を提案する。
シーケンシャルアプローチの有効性は、合成データと実世界のデータセットを用いた実験を通じて実証され、正確性を維持しつつ、時間とリソースの大幅な削減を示す。
関連論文リスト
- Pseudo Replay-based Class Continual Learning for Online New Category
Anomaly Detection in Additive Manufacturing [5.4754728413969405]
本稿では,クラスインクリメンタルラーニングとオーバーサンプリングベースデータ生成を統合した,新しい擬似リプレイ型連続学習を開発する。
本フレームワークの有効性を添加製造プロセスで検証する。
論文 参考訳(メタデータ) (2023-12-05T04:43:23Z) - Continual Learning of Diffusion Models with Generative Distillation [37.71623422718308]
拡散モデルは、画像合成などのタスクにおいて最先端のパフォーマンスを達成する強力な生成モデルである。
本稿では,拡散モデルの全逆過程を除去する生成蒸留法を提案する。
論文 参考訳(メタデータ) (2023-11-23T14:33:03Z) - PrACTiS: Perceiver-Attentional Copulas for Time Series [27.107746150930055]
本稿では、時系列予測を強化するために、知覚アーキテクチャとコプラ構造を組み合わせたモデルを提案する。
認識器をエンコーダとして利用することにより、複雑な高次元のマルチモーダルデータをコンパクトな潜在空間に効率よく変換する。
また,コプラに基づくアテンションと出力分散試験機構を配置し,欠落データの連成分布を抽出する。
論文 参考訳(メタデータ) (2023-10-03T01:13:17Z) - Uncovering the Hidden Cost of Model Compression [49.937417635812025]
視覚プロンプティング (VP) はコンピュータビジョンにおいて重要な伝達学習手法として登場した。
モデル間隔は視覚的プロンプトベース転送の性能に悪影響を及ぼす。
以上の結果から,疎度が下流視覚刺激モデルの校正に及ぼす影響が示唆された。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z) - PROM: A Phrase-level Copying Mechanism with Pre-training for Abstractive
Summarization [139.242907155883]
本研究は,n-gramの注目度を高める新しいPhRaseレベルのcOpying機構であるPROMを提案する。
PROMは、ソースからコピーできるn-gramのトークンを明示的にピックアップするインジケータ層を追加し、コピー予測の補助損失を算出する。
ゼロショット設定では、PROMは生コーパスの自己教師付き事前学習に利用され、広範囲の要約データセットに新しい一般的なベースラインを提供する。
論文 参考訳(メタデータ) (2023-05-11T08:29:05Z) - Latent Autoregressive Source Separation [5.871054749661012]
本稿では,ベクトル量子化遅延自己回帰音源分離(入力信号を構成源にデミックスする)を導入する。
分離法は, 自己回帰モデルが先行するベイズ式に依拠し, 付加トークンの潜在和に対して離散的(非パラメトリック)確率関数を構築した。
論文 参考訳(メタデータ) (2023-01-09T17:32:00Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - On the Copying Behaviors of Pre-Training for Neural Machine Translation [63.914940899327966]
これまでの研究で、ニューラルネットワーク翻訳(NMT)モデルを事前訓練言語モデル(LM)で初期化することは、モデルのトレーニングを高速化し、モデル性能を向上させることが示されている。
本研究では,NMTのトレーニング目標とNMTの訓練目標との相違から,NMTの事前訓練における重要な副作用を同定する。
本稿では,復号における複写動作を制御するために,複写ペナルティ(copying penalty)というシンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-07-17T10:02:30Z) - On Learning Text Style Transfer with Direct Rewards [101.97136885111037]
平行コーパスの欠如により、テキストスタイルの転送タスクの教師付きモデルを直接訓練することは不可能である。
我々は、当初、微調整されたニューラルマシン翻訳モデルに使用されていた意味的類似度指標を活用している。
我々のモデルは、強いベースラインに対する自動評価と人的評価の両方において大きな利益をもたらす。
論文 参考訳(メタデータ) (2020-10-24T04:30:02Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。