論文の概要: Practical Insights of Repairing Model Problems on Image Classification
- arxiv url: http://arxiv.org/abs/2205.07116v1
- Date: Sat, 14 May 2022 19:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 16:51:39.161416
- Title: Practical Insights of Repairing Model Problems on Image Classification
- Title(参考訳): 画像分類における修復モデル問題の実例
- Authors: Akihito Yoshii, Susumu Tokumoto, Fuyuki Ishikawa
- Abstract要約: ディープラーニングモデルの追加トレーニングは、結果にネガティブな影響をもたらし、初期正のサンプルを負のサンプルに変える(劣化)。
本稿では, 劣化低減手法の比較から得られた影響について述べる。
その結果、実践者は、AIシステムのデータセットの可用性とライフサイクルを継続的に考慮し、より良い方法に気を配るべきであることが示唆された。
- 参考スコア(独自算出の注目度): 3.2932371462787513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Additional training of a deep learning model can cause negative effects on
the results, turning an initially positive sample into a negative one
(degradation). Such degradation is possible in real-world use cases due to the
diversity of sample characteristics. That is, a set of samples is a mixture of
critical ones which should not be missed and less important ones. Therefore, we
cannot understand the performance by accuracy alone. While existing research
aims to prevent a model degradation, insights into the related methods are
needed to grasp their benefits and limitations. In this talk, we will present
implications derived from a comparison of methods for reducing degradation.
Especially, we formulated use cases for industrial settings in terms of
arrangements of a data set. The results imply that a practitioner should care
about better method continuously considering dataset availability and life
cycle of an AI system because of a trade-off between accuracy and preventing
degradation.
- Abstract(参考訳): ディープラーニングモデルのさらなるトレーニングは、結果に負の影響をもたらし、最初の正のサンプルを負のサンプルに変換する(劣化)。
このような劣化は実世界のユースケースではサンプル特性の多様性によって可能となる。
つまり、サンプルのセットは、欠落すべきでない重要なものと重要でないものの組み合わせである。
したがって、精度だけでは性能を理解できない。
既存の研究は、モデルの劣化を防ぐことを目的としているが、それらの利点と限界を理解するには、関連する方法に対する洞察が必要である。
本稿では, 劣化低減手法の比較から得られた影響について述べる。
特に,データセットのアレンジメントの観点から,産業設定のユースケースを定式化した。
結果は、aiシステムのデータセットの可用性とライフサイクルを継続的に考慮し、より良い方法に気を配るべきであることを示唆している。
関連論文リスト
- Rethinking negative sampling in content-based news recommendation [1.5416095780642964]
ニュースレコメンデーターシステムは、記事の短い寿命によって妨げられている。
近年の研究では、この問題に対処するためのコンテンツベースニューラルネットワークの可能性が実証されている。
本研究では, 否定例の慎重なサンプリングが, モデルの結果に大きな影響を与えることを示唆する。
論文 参考訳(メタデータ) (2024-11-13T15:42:13Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Undersmoothing Causal Estimators with Generative Trees [0.0]
観察データから個別に治療効果を推定することで、標的となる介入の可能性を解き放つことができる。
しかし、観測データからこれらの効果を推測することは困難である。
本稿では,モデルの不特定に対処する新しい生成木に基づくアプローチについて検討する。
論文 参考訳(メタデータ) (2022-03-16T11:59:38Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - Tomographic Auto-Encoder: Unsupervised Bayesian Recovery of Corrupted
Data [4.725669222165439]
破損したデータの教師なし回復のための新しい確率的手法を提案する。
劣化したサンプルの大規模なアンサンブルを考慮し,クリーンな値の正確な後部を復元する。
我々は、欠落した値とノイズの共通の設定の下で、データリカバリタスクでモデルをテストします。
論文 参考訳(メタデータ) (2020-06-30T16:18:16Z) - MissDeepCausal: Causal Inference from Incomplete Data Using Deep Latent
Variable Models [14.173184309520453]
因果推論の最先端の手法は、欠落した値を考慮していない。
欠落したデータは、適応された未確立仮説を必要とする。
欠落した値に適応した変分オートエンコーダを通じて分布を学習する潜在的共同設立者について考察する。
論文 参考訳(メタデータ) (2020-02-25T12:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。