論文の概要: Discrete-Constrained Regression for Local Counting Models
- arxiv url: http://arxiv.org/abs/2207.09865v1
- Date: Wed, 20 Jul 2022 12:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:41:45.893518
- Title: Discrete-Constrained Regression for Local Counting Models
- Title(参考訳): 局所カウントモデルに対する離散制約回帰
- Authors: Haipeng Xiong and Angela Yao
- Abstract要約: 局所数(かんそく、英: local count)は、自然界における連続的な値である。
最近の最先端の手法では、分類タスクとしてのカウントの定式化が回帰よりも優れていることが示されている。
この結果は、不正確な真実の局所的な数によって引き起こされることを示す。
- 参考スコア(独自算出の注目度): 27.1177471719278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local counts, or the number of objects in a local area, is a continuous value
by nature. Yet recent state-of-the-art methods show that formulating counting
as a classification task performs better than regression. Through a series of
experiments on carefully controlled synthetic data, we show that this
counter-intuitive result is caused by imprecise ground truth local counts.
Factors such as biased dot annotations and incorrectly matched Gaussian kernels
used to generate ground truth counts introduce deviations from the true local
counts. Standard continuous regression is highly sensitive to these errors,
explaining the performance gap between classification and regression. To
mitigate the sensitivity, we loosen the regression formulation from a
continuous scale to a discrete ordering and propose a novel
discrete-constrained (DC) regression. Applied to crowd counting, DC-regression
is more accurate than both classification and standard regression on three
public benchmarks. A similar advantage also holds for the age estimation task,
verifying the overall effectiveness of DC-regression.
- Abstract(参考訳): 局所数(かんそく、英: local count)は、自然界における連続的な値である。
しかし、最近の最先端手法は、分類タスクとしてのカウントの定式化が回帰よりも優れていることを示している。
慎重に制御された合成データに関する一連の実験を通して、この反直感的な結果は不正確な真実の局所的な数によって引き起こされることを示した。
バイアス付きドットアノテーションや、基底真理数を生成するために使われたガウス核などの要因は、真の局所数からの逸脱をもたらす。
標準的な連続回帰はこれらの誤りに非常に敏感であり、分類と回帰の間のパフォーマンスギャップを説明する。
感度を緩和するため,回帰定式化を連続スケールから離散順序付けに緩和し,新しい離散拘束型回帰(dc)を提案する。
群衆数に当てはまると、dc-regressionは3つの公開ベンチマークで分類と標準回帰の両方よりも正確である。
年齢推定タスクにも同様の利点があり、dc-regressionの全体的な有効性を検証する。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Engression: Extrapolation for Nonlinear Regression? [2.9761801768136253]
補間は、トレーニングサポート外のテストデータに遭遇することが一般的であるため、多くの統計学および機械学習アプリケーションにおいて重要である。
本研究の目的は,トレーニングサポートの境界において,信頼性がすぐに崩壊しない非線形回帰手法を提供することである。
我々の主な貢献は「エングレース」と呼ばれる新しい手法であり、その中核となるのは、前加法雑音モデルに対する分布回帰手法である。
論文 参考訳(メタデータ) (2023-07-03T08:19:00Z) - Random Forest Weighted Local Fr\'echet Regression with Random Objects [52.25304029942005]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は,これらの重みを局所平均として利用し,条件付きFr'echet平均を解く。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Detecting Label Noise via Leave-One-Out Cross Validation [0.0]
クリーンなサンプルと破損したサンプルの混合から実値のノイズラベルを同定し,修正するための簡単なアルゴリズムを提案する。
独立分散を伴う付加的なガウス雑音項をそれぞれと観測されたラベルに関連付けるヘテロ代用ノイズモデルを用いる。
提案手法は, 合成および実世界の科学データを用いた学習において, 劣化したサンプルを特定でき, より良い回帰モデルが得られることを示す。
論文 参考訳(メタデータ) (2021-03-21T10:02:50Z) - Robust Gaussian Process Regression with a Bias Model [0.6850683267295248]
既存のほとんどのアプローチは、重い尾の分布から誘導される非ガウス的確率に、外れやすいガウス的確率を置き換えるものである。
提案手法は、未知の回帰関数の雑音および偏りの観測として、外れ値をモデル化する。
バイアス推定に基づいて、ロバストなGP回帰を標準のGP回帰問題に還元することができる。
論文 参考訳(メタデータ) (2020-01-14T06:21:51Z) - Censored Quantile Regression Forest [81.9098291337097]
我々は、検閲に適応し、データが検閲を示さないときに量子スコアをもたらす新しい推定方程式を開発する。
提案手法は, パラメトリックなモデリング仮定を使わずに, 時間単位の定量を推定することができる。
論文 参考訳(メタデータ) (2020-01-08T23:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。