論文の概要: The Earth Mover's Pinball Loss: Quantiles for Histogram-Valued
Regression
- arxiv url: http://arxiv.org/abs/2106.02051v1
- Date: Thu, 3 Jun 2021 18:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:15:22.686028
- Title: The Earth Mover's Pinball Loss: Quantiles for Histogram-Valued
Regression
- Title(参考訳): earth mover's pinball loss: quantiles for histogram-valued regression
- Authors: Florian List
- Abstract要約: 本稿では,クロスビン情報を組み込んだDeep Learningベースのヒストグラム回帰法を提案する。
本手法は,具体例,サッカー関連課題,天体物理学的コンピュータビジョン問題を用いて検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although ubiquitous in the sciences, histogram data have not received much
attention by the Deep Learning community. Whilst regression and classification
tasks for scalar and vector data are routinely solved by neural networks, a
principled approach for estimating histogram labels as a function of an input
vector or image is lacking in the literature. We present a dedicated method for
Deep Learning-based histogram regression, which incorporates cross-bin
information and yields distributions over possible histograms, expressed by
$\tau$-quantiles of the cumulative histogram in each bin. The crux of our
approach is a new loss function obtained by applying the pinball loss to the
cumulative histogram, which for 1D histograms reduces to the Earth Mover's
distance (EMD) in the special case of the median ($\tau = 0.5$), and
generalizes it to arbitrary quantiles. We validate our method with an
illustrative toy example, a football-related task, and an astrophysical
computer vision problem. We show that with our loss function, the accuracy of
the predicted median histograms is very similar to the standard EMD case (and
higher than for per-bin loss functions such as cross-entropy), while the
predictions become much more informative at almost no additional computational
cost.
- Abstract(参考訳): 科学界ではユビキタスだが、ヒストグラムデータはディープラーニングコミュニティからはあまり注目を集めていない。
スカラーとベクトルデータの回帰と分類タスクはニューラルネットワークによって日常的に解決されるが、入力ベクトルや画像の関数としてヒストグラムラベルを推定するための原理的なアプローチは文献に欠けている。
本稿では,各ビンの累積ヒストグラムの$\tau$-quantilesで表される,クロスビン情報と可能なヒストグラム上の分布を付与する,深層学習に基づくヒストグラム回帰のための専用手法を提案する。
本手法の要点は, ピンボールロスを累積ヒストグラムに適用することにより得られる新たな損失関数であり, 1次元ヒストグラムの場合, 中央値 (\tau = 0.5$) の特別な場合において地球Mover距離 (EMD) に還元し, 任意の量子化に一般化する。
本手法は,具体例,サッカー関連課題,天体物理学的コンピュータビジョン問題を用いて検証する。
損失関数では,予測中央値ヒストグラムの精度は標準的なEMDの場合(クロスエントロピーのようなビン単位の損失関数よりも高い)と非常によく似ており,予測は計算コストをほとんど必要とせずにはるかに有益であることを示す。
関連論文リスト
- Investigating the Histogram Loss in Regression [16.83443393563771]
ヒストグラムロス(Histogram Loss)は、対象変数の条件分布を学習するための回帰手法である。
この設定における学習分布の利点は、余分な情報をモデル化するのではなく、最適化の改善によるものであることを示す。
論文 参考訳(メタデータ) (2024-02-20T23:29:41Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - ADA-GAD: Anomaly-Denoised Autoencoders for Graph Anomaly Detection [84.0718034981805]
我々はAnomaly-Denoized Autoencoders for Graph Anomaly Detection (ADA-GAD)という新しいフレームワークを導入する。
第1段階では,異常レベルを低減したグラフを生成する学習自由な異常化拡張法を設計する。
次の段階では、デコーダは元のグラフで検出するために再訓練される。
論文 参考訳(メタデータ) (2023-12-22T09:02:01Z) - Two-level histograms for dealing with outliers and heavy tail
distributions [0.0]
我々は,G-Enumヒストグラム法に着目し,最小記述長(MDL)の原理を用いてユーザパラメータを使わずにヒストグラムを構築する。
本研究では, 降圧器や重み付き分布の場合に, この手法の限界について検討する。
最初のレベルはデータの対数変換を利用して、データセットを制御範囲の値を持つデータサブセットのリストに分割する。
第2のレベルは、各データサブセットに対してサブヒストグラムを構築し、それらを集約して完全なヒストグラムを得る。
論文 参考訳(メタデータ) (2023-06-09T09:57:18Z) - A fast topological approach for predicting anomalies in time-varying
graphs [0.0]
トポロジカルデータ解析(TDA)からの永続化ダイアグラム(PD)は、点間距離が明確に定義されたデータ形状記述法として人気がある。
本稿では,グラフデータから形状情報を抽出する計算効率の良いフレームワークを提案する。
実際のデータアプリケーションでは、暗号取引ネットワークの異常な価格予測において、我々のアプローチは最大で22%上昇する。
論文 参考訳(メタデータ) (2023-05-11T01:54:45Z) - Training trajectories, mini-batch losses and the curious role of the
learning rate [13.848916053916618]
検証された勾配勾配勾配は、ディープラーニングのほぼすべての応用において、基本的な役割を担っていることを示す。
本稿では,ミニバッチの勾配と全バッチの関係を解析する簡単なモデルと幾何学的解釈を提案する。
特に、非常に低い損失値は、十分な学習率で1段階の降下に到達することができる。
論文 参考訳(メタデータ) (2023-01-05T21:58:46Z) - Deep Autoregressive Regression [5.257719744958367]
平均二乗誤差損失を用いた回帰の大幅な制限は、ターゲットの規模に対する感度であることを示す。
本稿では,実数値回帰目標,自己回帰回帰に基づく深層学習モデルの学習手法を提案する。
論文 参考訳(メタデータ) (2022-11-14T15:22:20Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Distributed Training of Graph Convolutional Networks using Subgraph
Approximation [72.89940126490715]
本稿では,グラフの複数の分割にまたがる失われる情報をサブグラフ近似スキームで緩和するトレーニング戦略を提案する。
サブグラフ近似アプローチは、分散トレーニングシステムが単一マシン精度で収束するのに役立つ。
論文 参考訳(メタデータ) (2020-12-09T09:23:49Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。