論文の概要: The Earth Mover's Pinball Loss: Quantiles for Histogram-Valued
Regression
- arxiv url: http://arxiv.org/abs/2106.02051v1
- Date: Thu, 3 Jun 2021 18:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:15:22.686028
- Title: The Earth Mover's Pinball Loss: Quantiles for Histogram-Valued
Regression
- Title(参考訳): earth mover's pinball loss: quantiles for histogram-valued regression
- Authors: Florian List
- Abstract要約: 本稿では,クロスビン情報を組み込んだDeep Learningベースのヒストグラム回帰法を提案する。
本手法は,具体例,サッカー関連課題,天体物理学的コンピュータビジョン問題を用いて検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although ubiquitous in the sciences, histogram data have not received much
attention by the Deep Learning community. Whilst regression and classification
tasks for scalar and vector data are routinely solved by neural networks, a
principled approach for estimating histogram labels as a function of an input
vector or image is lacking in the literature. We present a dedicated method for
Deep Learning-based histogram regression, which incorporates cross-bin
information and yields distributions over possible histograms, expressed by
$\tau$-quantiles of the cumulative histogram in each bin. The crux of our
approach is a new loss function obtained by applying the pinball loss to the
cumulative histogram, which for 1D histograms reduces to the Earth Mover's
distance (EMD) in the special case of the median ($\tau = 0.5$), and
generalizes it to arbitrary quantiles. We validate our method with an
illustrative toy example, a football-related task, and an astrophysical
computer vision problem. We show that with our loss function, the accuracy of
the predicted median histograms is very similar to the standard EMD case (and
higher than for per-bin loss functions such as cross-entropy), while the
predictions become much more informative at almost no additional computational
cost.
- Abstract(参考訳): 科学界ではユビキタスだが、ヒストグラムデータはディープラーニングコミュニティからはあまり注目を集めていない。
スカラーとベクトルデータの回帰と分類タスクはニューラルネットワークによって日常的に解決されるが、入力ベクトルや画像の関数としてヒストグラムラベルを推定するための原理的なアプローチは文献に欠けている。
本稿では,各ビンの累積ヒストグラムの$\tau$-quantilesで表される,クロスビン情報と可能なヒストグラム上の分布を付与する,深層学習に基づくヒストグラム回帰のための専用手法を提案する。
本手法の要点は, ピンボールロスを累積ヒストグラムに適用することにより得られる新たな損失関数であり, 1次元ヒストグラムの場合, 中央値 (\tau = 0.5$) の特別な場合において地球Mover距離 (EMD) に還元し, 任意の量子化に一般化する。
本手法は,具体例,サッカー関連課題,天体物理学的コンピュータビジョン問題を用いて検証する。
損失関数では,予測中央値ヒストグラムの精度は標準的なEMDの場合(クロスエントロピーのようなビン単位の損失関数よりも高い)と非常によく似ており,予測は計算コストをほとんど必要とせずにはるかに有益であることを示す。
関連論文リスト
- Robust Graph-Based Semi-Supervised Learning via $p$-Conductances [49.0776396776252]
本研究では,データラベルが不足している,あるいは破損しているような状況下でのグラフに対する半教師付き学習の課題について検討する。
我々は、$p$-laplace と Poisson の学習方法を一般化した $p$-conductance learning という手法を提案する。
コンピュータビジョンと引用データセットの実証実験結果から,本手法が低ラベルレート, 劣化ラベル, 部分ラベルレジームにおける最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2025-02-13T01:11:25Z) - Investigating the Histogram Loss in Regression [16.83443393563771]
ヒストグラムロス(Histogram Loss)は、対象変数の条件分布を学習するための回帰手法である。
この設定における学習分布の利点は、余分な情報をモデル化するのではなく、最適化の改善によるものであることを示す。
論文 参考訳(メタデータ) (2024-02-20T23:29:41Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - ADA-GAD: Anomaly-Denoised Autoencoders for Graph Anomaly Detection [84.0718034981805]
我々はAnomaly-Denoized Autoencoders for Graph Anomaly Detection (ADA-GAD)という新しいフレームワークを導入する。
第1段階では,異常レベルを低減したグラフを生成する学習自由な異常化拡張法を設計する。
次の段階では、デコーダは元のグラフで検出するために再訓練される。
論文 参考訳(メタデータ) (2023-12-22T09:02:01Z) - Two-level histograms for dealing with outliers and heavy tail
distributions [0.0]
我々は,G-Enumヒストグラム法に着目し,最小記述長(MDL)の原理を用いてユーザパラメータを使わずにヒストグラムを構築する。
本研究では, 降圧器や重み付き分布の場合に, この手法の限界について検討する。
最初のレベルはデータの対数変換を利用して、データセットを制御範囲の値を持つデータサブセットのリストに分割する。
第2のレベルは、各データサブセットに対してサブヒストグラムを構築し、それらを集約して完全なヒストグラムを得る。
論文 参考訳(メタデータ) (2023-06-09T09:57:18Z) - A fast topological approach for predicting anomalies in time-varying
graphs [0.0]
トポロジカルデータ解析(TDA)からの永続化ダイアグラム(PD)は、点間距離が明確に定義されたデータ形状記述法として人気がある。
本稿では,グラフデータから形状情報を抽出する計算効率の良いフレームワークを提案する。
実際のデータアプリケーションでは、暗号取引ネットワークの異常な価格予測において、我々のアプローチは最大で22%上昇する。
論文 参考訳(メタデータ) (2023-05-11T01:54:45Z) - Deep Autoregressive Regression [5.257719744958367]
平均二乗誤差損失を用いた回帰の大幅な制限は、ターゲットの規模に対する感度であることを示す。
本稿では,実数値回帰目標,自己回帰回帰に基づく深層学習モデルの学習手法を提案する。
論文 参考訳(メタデータ) (2022-11-14T15:22:20Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Distributed Training of Graph Convolutional Networks using Subgraph
Approximation [72.89940126490715]
本稿では,グラフの複数の分割にまたがる失われる情報をサブグラフ近似スキームで緩和するトレーニング戦略を提案する。
サブグラフ近似アプローチは、分散トレーニングシステムが単一マシン精度で収束するのに役立つ。
論文 参考訳(メタデータ) (2020-12-09T09:23:49Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。