論文の概要: Guaranteeing Reproducibility in Deep Learning Competitions
- arxiv url: http://arxiv.org/abs/2005.06041v1
- Date: Tue, 12 May 2020 20:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:33:59.125601
- Title: Guaranteeing Reproducibility in Deep Learning Competitions
- Title(参考訳): 深層学習競争における再現性確保
- Authors: Brandon Houghton, Stephanie Milani, Nicholay Topin, William Guss,
Katja Hofmann, Diego Perez-Liebana, Manuela Veloso, Ruslan Salakhutdinov
- Abstract要約: 本稿では,事前学習エージェントではなく,学習手順の性能を直接評価する課題パラダイムを提案する。
コンペティションオーガナイザは、制御された環境で提案されたメソッドを再トレーニングすることで、一般化を保証し、 -- 保持されたテストセットを使って申請を再トレーニングすることで、トレーニングされた環境を過去のものにするのに役立つ。
- 参考スコア(独自算出の注目度): 76.1872278772223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To encourage the development of methods with reproducible and robust training
behavior, we propose a challenge paradigm where competitors are evaluated
directly on the performance of their learning procedures rather than
pre-trained agents. Since competition organizers re-train proposed methods in a
controlled setting they can guarantee reproducibility, and -- by retraining
submissions using a held-out test set -- help ensure generalization past the
environments on which they were trained.
- Abstract(参考訳): 再現可能でロバストなトレーニング行動を持つ手法の開発を促進するために,事前学習したエージェントではなく,学習手順のパフォーマンスを競合者が直接評価する課題パラダイムを提案する。
コンペティションのオーガナイザは、制御された環境で提案されたメソッドを再トレーニングすることで再現性を保証し、 -- 保持されたテストセットを使用して提出をトレーニングすることで、トレーニングされた環境を過ぎての一般化を保証する。
関連論文リスト
- Prompt Tuning with Diffusion for Few-Shot Pre-trained Policy Generalization [55.14484317645865]
我々は,オフライン強化学習タスクにおいて,例外的な品質向上を促す条件拡散モデルを構築した。
本稿では,Promptディフューザがプロンプトチューニングプロセスの堅牢かつ効果的なツールであることを示し,メタRLタスクにおいて高い性能を示す。
論文 参考訳(メタデータ) (2024-11-02T07:38:02Z) - Enhancing Fairness through Reweighting: A Path to Attain the Sufficiency Rule [23.335423207588466]
モデルトレーニングにおける経験的リスク最小化プロセスを強化するための革新的なアプローチを導入する。
このスキームは、最適予測器が多様なサブグループ間で整合性を維持することを保証することによって、公正性における十分性規則を維持することを目的としている。
論文 参考訳(メタデータ) (2024-08-26T09:19:58Z) - Focus on Hiders: Exploring Hidden Threats for Enhancing Adversarial
Training [20.1991376813843]
我々は、HFAT(Hider-Focused Adversarial Training)と呼ばれる一般化した逆トレーニングアルゴリズムを提案する。
HFATは、標準的な対向訓練と予防隠蔽装置の最適化方向を組み合わせたものである。
提案手法の有効性を実験により検証した。
論文 参考訳(メタデータ) (2023-12-12T08:41:18Z) - Automated Fidelity Assessment for Strategy Training in Inpatient
Rehabilitation using Natural Language Processing [53.096237570992294]
戦略トレーニング (Strategy Training) とは、脳卒中後の認知障害患者に障害を減らすためのスキルを教える、リハビリテーションのアプローチである。
標準化された忠実度評価は治療原則の遵守度を測定するために用いられる。
本研究では,ルールベースNLPアルゴリズム,長短項メモリ(LSTM)モデル,および変換器(BERT)モデルからの双方向エンコーダ表現を開発した。
論文 参考訳(メタデータ) (2022-09-14T15:33:30Z) - Adversarial Training for Face Recognition Systems using Contrastive
Adversarial Learning and Triplet Loss Fine-tuning [0.0]
本稿では,Ad-versarial Pre-TrainingとTriplet Loss AdversarialFine-Tuningを組み合わせたアプローチを提案する。
本手法は, 微調整中に再検索したエポックをはるかに少なく抑えながら, 比較結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-10-09T05:28:09Z) - Reliably fast adversarial training via latent adversarial perturbation [5.444459446244819]
上述のオーバーヘッドコストを軽減するため, 単段階潜時対向訓練法を提案する。
構造的な単純さにもかかわらず、提案手法は最先端の加速型敵対的トレーニング方法よりも優れている。
論文 参考訳(メタデータ) (2021-04-04T09:47:38Z) - Adversarial Training is Not Ready for Robot Learning [55.493354071227174]
対人訓練は,ノルム有界摂動に耐性のあるディープラーニングモデルを訓練する有効な方法である。
敵訓練により得られたニューラルコントローラが3種類の欠陥を受けることを理論的および実験的に示す。
この結果から, ロボット学習にはまだ対応できていないことが示唆された。
論文 参考訳(メタデータ) (2021-03-15T07:51:31Z) - Combining Self-Training and Self-Supervised Learning for Unsupervised
Disfluency Detection [80.68446022994492]
本研究では,未ラベルテキストコーパスを扱える教師なし学習パラダイムについて検討する。
我々のモデルは、自己学習の考え方を拡張する半教師あり学習アプローチである、雑音学習(Noisy Student Training)に関する最近の研究に基づいている。
論文 参考訳(メタデータ) (2020-10-29T05:29:26Z) - Generalization Guarantees for Imitation Learning [6.542289202349586]
模倣学習からの制御ポリシーは、しばしば新しい環境への一般化に失敗する。
本稿では,PAC-Bayesフレームワークを利用した模倣学習のための厳密な一般化保証を提案する。
論文 参考訳(メタデータ) (2020-08-05T03:04:13Z) - Transfer Heterogeneous Knowledge Among Peer-to-Peer Teammates: A Model
Distillation Approach [55.83558520598304]
本研究は, モデル蒸留により, 複数の学生間で経験と伝達値関数を再利用する新しい手法を提案する。
また、異種知識を活用するための効率的な通信プロトコルの設計方法について述べる。
提案するフレームワークである学習・指導カテゴリー強化は,学習の進捗を安定化・加速する上で有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-06T11:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。