論文の概要: LossPlot: A Better Way to Visualize Loss Landscapes
- arxiv url: http://arxiv.org/abs/2111.15133v1
- Date: Tue, 30 Nov 2021 05:29:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 03:06:30.125063
- Title: LossPlot: A Better Way to Visualize Loss Landscapes
- Title(参考訳): LossPlot: ランドスケープを視覚化するより良い方法
- Authors: Robert Bain, Mikhail Tokarev, Harsh Kothari, Rahul Damineni
- Abstract要約: この作業は、このプロセスを半自動化するプラットフォームを構築するための、ユーザ主導のアプローチを文書化しています。
LossPlotはデータをcsv形式で受け入れ、複数のトレーニング済みの損失関数の最小化を同期で操作できるようにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Investigations into the loss landscapes of deep neural networks are often
laborious. This work documents our user-driven approach to create a platform
for semi-automating this process. LossPlot accepts data in the form of a csv,
and allows multiple trained minimizers of the loss function to be manipulated
in sync. Other features include a simple yet intuitive checkbox UI, summary
statistics, and the ability to control clipping which other methods do not
offer.
- Abstract(参考訳): ディープニューラルネットワークの損失状況の調査は、しばしば困難である。
この作業はこのプロセスを半自動化するためのプラットフォームを構築するためのユーザ主導のアプローチを文書化します。
LossPlotはデータをcsv形式で受け入れ、複数のトレーニング済みの損失関数の最小化を同期で操作できるようにする。
その他の機能としては、シンプルで直感的なチェックボックスui、要約統計、他のメソッドが提供していないクリッピングを制御する機能などがある。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - FourierLoss: Shape-Aware Loss Function with Fourier Descriptors [1.5659201748872393]
この研究は、FourierLossという新しい形状認識損失関数を導入しました。
これは、地上の真実と予測されたセグメンテーションマップの間の形状の相違に依拠し、それらのオブジェクト上で計算されたフーリエ記述子を通し、ネットワークトレーニングにおけるこの相違を罰する。
提案した形状認識損失関数が肝セグメンテーションに有意な有意な有意な成績を示した。
論文 参考訳(メタデータ) (2023-09-21T14:23:10Z) - Noise-Robust Loss Functions: Enhancing Bounded Losses for Large-Scale Noisy Data Learning [0.0]
大きな注釈付きデータセットには、必然的にノイズのあるラベルが含まれており、ラベルを覚えやすいようにディープニューラルネットワークをトレーニングする上で大きな課題となる。
ノイズ・ロバスト損失関数はこの問題に対処するための重要な戦略として現れてきたが、過度に適合しないロバスト損失関数を作成することは依然として困難である。
本稿では,ロジットバイアス(logit bias)と表される新しい手法を提案し,ロジットに正しいクラスの位置で実数$epsilon$を付加する。
論文 参考訳(メタデータ) (2023-06-08T18:38:55Z) - DePlot: One-shot visual language reasoning by plot-to-table translation [50.28850068391312]
本稿では,視覚言語推論における最初のワンショットソリューションを提案する。
DePlotと名付けられたモダリティ変換モジュールは、プロットやチャートのイメージを線形化されたテーブルに変換する。
次に、DePlotの出力を直接使用して、事前訓練された大きな言語モデルをプロンプトすることができる。
論文 参考訳(メタデータ) (2022-12-20T18:20:50Z) - A Fair Loss Function for Network Pruning [70.35230425589592]
本稿では, 刈り込み時のバイアスの抑制に使用できる簡易な改良型クロスエントロピー損失関数である, 性能重み付き損失関数を提案する。
CelebA、Fitzpatrick17k、CIFAR-10データセットを用いた実験は、提案手法が単純で効果的なツールであることを実証している。
論文 参考訳(メタデータ) (2022-11-18T15:17:28Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Hyperplane bounds for neural feature mappings [4.518012967046983]
深層学習法は、クロスエントロピー損失のような損失関数を用いて経験的リスクを最小化する。
学習関数の一般化は、トレーニングデータのパフォーマンス、関数のVapnik-Chervonenkis(VC)次元、トレーニング例の数に依存する。
本研究では,本手法を用いた場合,トレーニングセットのサイズが小さい場合の性能が向上することが確認された。
論文 参考訳(メタデータ) (2022-01-15T09:11:54Z) - Learning with Noisy Labels via Sparse Regularization [76.31104997491695]
ノイズの多いラベルで学習することは、正確なディープニューラルネットワークをトレーニングするための重要なタスクである。
クロスエントロピー(Cross Entropy, CE)など、一般的に使われている損失関数は、ノイズラベルへの過度なオーバーフィットに悩まされている。
我々は, スパース正規化戦略を導入し, ワンホット制約を近似する。
論文 参考訳(メタデータ) (2021-07-31T09:40:23Z) - Improving Adversarial Robustness via Probabilistically Compact Loss with
Logit Constraints [19.766374145321528]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンの様々なタスクで最先端のパフォーマンスを達成しました。
最近の研究では、これらのモデルは慎重に作られた敵のサンプルに対して脆弱であり、予測時に大幅なパフォーマンス低下に苦しむことが示されています。
ここでは、CNNの予測行動に関するユニークな洞察を提供し、最も可能性の高い偽クラスに敵のサンプルを誤分類する傾向がある。
CNNを改善するためのクロスエントロピー(CE)損失のドロップイン代替として使用できるロジット制約付き新しい確率コンパクト(PC)損失を提案する。
論文 参考訳(メタデータ) (2020-12-14T16:40:53Z) - A Comparison of Metric Learning Loss Functions for End-To-End Speaker
Verification [4.617249742207066]
本稿では,VoxCelebデータセット上で,いくつかのメトリクス学習損失関数を体系的に比較する。
加法的な角縁損失関数は,他のすべての損失関数より優れていることを示す。
本稿では,SincNet のトレーニング可能な機能と x-vector アーキテクチャを組み合わせることで,エンドツーエンドの話者検証システムに一歩近づいた。
論文 参考訳(メタデータ) (2020-03-31T08:36:07Z) - Evolving Losses for Unsupervised Video Representation Learning [91.2683362199263]
大規模未ラベル映像データから映像表現を学習する新しい手法を提案する。
提案した教師なし表現学習では,単一のRGBネットワークが実現し,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-02-26T16:56:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。