論文の概要: ART: Actually Robust Training
- arxiv url: http://arxiv.org/abs/2408.16285v1
- Date: Thu, 29 Aug 2024 06:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 14:55:17.145798
- Title: ART: Actually Robust Training
- Title(参考訳): ART: 実際にロバストトレーニング
- Authors: Sebastian Chwilczyński, Kacper Trębacz, Karol Cyganik, Mateusz Małecki, Dariusz Brzezinski,
- Abstract要約: Artは、ディープラーニングパイプラインを開発しながら、ルールと標準を自動的に強制するように設計されたPythonライブラリである。
アートは、モデル開発を複雑さを増大させる一連の小さなステップに分割し、それぞれがプロセスの解釈可能性と堅牢性を改善する検証チェックで結論付けます。
- 参考スコア(独自算出の注目度): 0.9751737916200892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current interest in deep learning captures the attention of many programmers and researchers. Unfortunately, the lack of a unified schema for developing deep learning models results in methodological inconsistencies, unclear documentation, and problems with reproducibility. Some guidelines have been proposed, yet currently, they lack practical implementations. Furthermore, neural network training often takes on the form of trial and error, lacking a structured and thoughtful process. To alleviate these issues, in this paper, we introduce Art, a Python library designed to help automatically impose rules and standards while developing deep learning pipelines. Art divides model development into a series of smaller steps of increasing complexity, each concluded with a validation check improving the interpretability and robustness of the process. The current version of Art comes equipped with nine predefined steps inspired by Andrej Karpathy's Recipe for Training Neural Networks, a visualization dashboard, and integration with loggers such as Neptune. The code related to this paper is available at: https://github.com/SebChw/Actually-Robust-Training.
- Abstract(参考訳): ディープラーニングへの関心は、多くのプログラマや研究者の注目を集めている。
残念ながら、ディープラーニングモデルを開発するための統一スキーマが欠如していることは、方法論上の矛盾、不明瞭なドキュメント、再現性の問題をもたらす。
いくつかのガイドラインは提案されているが、現在は実践的な実装が欠けている。
さらに、ニューラルネットワークのトレーニングは、しばしば試行錯誤の形で行われ、構造化された思慮深いプロセスが欠如している。
本稿では,これらの問題を緩和するために,ディープラーニングパイプラインを開発しながらルールや標準を自動的に適用するように設計されたPythonライブラリであるArtを紹介する。
アートは、モデル開発を複雑さを増大させる一連の小さなステップに分割し、それぞれがプロセスの解釈可能性と堅牢性を改善する検証チェックで結論付けます。
現在のバージョンのArtには、Andrej Karpathy氏のRecipe for Training Neural Networksにインスパイアされた9つの事前定義されたステップ、視覚化ダッシュボード、Neptuneなどのログとの統合が含まれている。
この論文に関連するコードは、https://github.com/SebChw/Actually-Robust-Training.comで公開されている。
関連論文リスト
- Bridging Logic and Learning: A Neural-Symbolic Approach for Enhanced
Reasoning in Neural Models (ASPER) [0.13053649021965597]
本稿では,学習推論タスクにおけるニューラルモデルの性能向上を目的としたアプローチを提案する。
これを実現するために、Answer Set Programmingソルバとドメイン固有の専門知識を統合する。
モデルは、トレーニングとテストのためにたった12のパズルを使用して、スドゥークパズルの解法を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-12-18T19:06:00Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - APP: Anytime Progressive Pruning [104.36308667437397]
本稿では,特にオンライン学習の場合において,ニューラルネットワークをターゲット空間でトレーニングする方法を提案する。
提案手法は,複数のアーキテクチャやデータセットにまたがるベースライン密度とAnytime OSPモデルにおいて,短時間で適度かつ長時間のトレーニングにおいて,大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-04-04T16:38:55Z) - Fortuitous Forgetting in Connectionist Networks [20.206607130719696]
我々は,ニューラルネットワークの学習軌跡を形成するための強力なパラダイムとして,"forget-and-relearn"を紹介した。
forget-and-relearnフレームワークは、画像分類と言語出現文学において、多くの既存の反復的トレーニングアルゴリズムを統合する。
我々は、この理解を活用して、よりターゲットを絞った忘れ操作を設計することで、既存のアルゴリズムを改善する。
論文 参考訳(メタデータ) (2022-02-01T00:15:58Z) - Graphs for deep learning representations [1.0152838128195467]
グラフ信号処理(GSP)の最近の進歩に基づくグラフ形式化について紹介します。
すなわち、ディープニューラルネットワークの潜在空間を表すためにグラフを使用します。
このグラフ形式化によって,頑健性の確保,学習プロセスの設計における任意の選択量の削減,入力に付加された小さな一般化の改善,計算複雑性の低減など,さまざまな質問に答えることができることが示されています。
論文 参考訳(メタデータ) (2020-12-14T11:51:23Z) - PrototypeML: A Neural Network Integrated Design and Development
Environment [0.0]
PrototypeMLは、設計と開発プロセスの分岐をブリッジする機械学習開発環境である。
PyTorchディープラーニングフレームワークの全機能をサポートする、非常に直感的なビジュアルニューラルネットワーク設計インターフェースを提供する。
論文 参考訳(メタデータ) (2020-07-01T08:47:46Z) - Bayesian active learning for production, a systematic study and a
reusable library [85.32971950095742]
本稿では,現在のアクティブラーニング技術の主な欠点について分析する。
実世界のデータセットの最も一般的な課題が深層能動学習プロセスに与える影響について,系統的研究を行った。
部分的不確実性サンプリングやより大きいクエリサイズといった,アクティブな学習ループを高速化する2つの手法を導出する。
論文 参考訳(メタデータ) (2020-06-17T14:51:11Z) - Learning to Stop While Learning to Predict [85.7136203122784]
多くのアルゴリズムにインスパイアされたディープモデルは全ての入力に対して固定深度に制限される。
アルゴリズムと同様に、深いアーキテクチャの最適深さは、異なる入力インスタンスに対して異なるかもしれない。
本稿では, ステアブルアーキテクチャを用いて, この様々な深さ問題に対処する。
学習した深層モデルと停止ポリシーにより,多様なタスクセットのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-06-09T07:22:01Z) - DeepSumm -- Deep Code Summaries using Neural Transformer Architecture [8.566457170664927]
我々はソースコード要約の課題を解決するためにニューラルネットワークを用いる。
2.1m以上のコメントとコードの教師付きサンプルで、トレーニング時間を50%以上短縮します。
論文 参考訳(メタデータ) (2020-03-31T22:43:29Z) - A System for Real-Time Interactive Analysis of Deep Learning Training [66.06880335222529]
現在利用可能なシステムは、トレーニングプロセスが始まる前に指定しなければならないログデータのみを監視することに限定されている。
本稿では,リアルタイム情報を生成するライブプロセス上で対話型クエリを実行可能にするシステムを提案する。
論文 参考訳(メタデータ) (2020-01-05T11:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。