論文の概要: Remarks on Loss Function of Threshold Method for Ordinal Regression Problem
- arxiv url: http://arxiv.org/abs/2405.13288v1
- Date: Wed, 22 May 2024 02:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 01:34:09.741778
- Title: Remarks on Loss Function of Threshold Method for Ordinal Regression Problem
- Title(参考訳): 正規回帰問題に対する閾値法の損失関数に関する考察
- Authors: Ryoya Yamasaki, Toshiyuki Tanaka,
- Abstract要約: しきい値法の分類性能に基礎となるデータ分布と1DTの学習手順が与える影響について検討した。
その結果,説明変数の観測に基づく対象変数の確率分布が一様でない傾向にある場合,典型的な学習手順に基づくしきい値法は不十分であることがわかった。
- 参考スコア(独自算出の注目度): 3.762128705885155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Threshold methods are popular for ordinal regression problems, which are classification problems for data with a natural ordinal relation. They learn a one-dimensional transformation (1DT) of observations of the explanatory variable, and then assign label predictions to the observations by thresholding their 1DT values. In this paper, we study the influence of the underlying data distribution and of the learning procedure of the 1DT on the classification performance of the threshold method via theoretical considerations and numerical experiments. Consequently, for example, we found that threshold methods based on typical learning procedures may perform poorly when the probability distribution of the target variable conditioned on an observation of the explanatory variable tends to be non-unimodal. Another instance of our findings is that learned 1DT values are concentrated at a few points under the learning procedure based on a piecewise-linear loss function, which can make difficult to classify data well.
- Abstract(参考訳): 閾値法は、自然な順序関係を持つデータの分類問題である順序回帰問題に人気がある。
彼らは説明変数の観測の1次元変換(1DT)を学び、1DT値を閾値付けすることでラベル予測を観測に割り当てる。
本稿では,基礎となるデータ分布と1DTの学習手順が,理論的考察と数値実験によるしきい値法の分類性能に与える影響について検討する。
その結果、例えば、説明変数の観測で条件付けられた対象変数の確率分布が非一様である場合、典型的な学習手順に基づくしきい値法は、性能が低下する可能性があることがわかった。
もう一つの例は、学習した1DT値が、断片的な線形損失関数に基づいて学習手順の下数点に集中していることであり、データの分類が困難である。
関連論文リスト
- Off-policy estimation with adaptively collected data: the power of online learning [20.023469636707635]
適応的に収集したデータを用いて, 処理効果の線形関数を推定する。
本稿では,オンライン学習を通じて治療効果の一連の推定を生成できる一般還元方式を提案する。
論文 参考訳(メタデータ) (2024-11-19T10:18:27Z) - Estimating Conditional Average Treatment Effects via Sufficient Representation Learning [31.822980052107496]
本稿では,その特徴を十分に表現するためにtextbfCrossNet という新しいニューラルネットワークアプローチを提案し,条件平均処理効果(CATE)を推定する。
数値シミュレーションと実験により,本手法が競合手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-08-30T07:23:59Z) - Disentanglement Learning via Topology [22.33086299021419]
マルチスケールなトポロジ的損失項を付加することにより,不整合表現を学習するTopDisを提案する。
ディスタングルメントは、ディープラーニングモデルの説明可能性と堅牢性にとって重要なデータ表現の重要な特性である。
提案した位相損失を用いて,訓練されたGANにおいて不整合方向を求める方法を示す。
論文 参考訳(メタデータ) (2023-08-24T10:29:25Z) - Generalizing experimental findings: identification beyond adjustments [2.5889737226898437]
ランダム化比較試験(RCT)の結果を,観測データを用いて対象集団に一般化することを目的としている。
実験結果が調整によって一般化できない事例を考察する。
この一般化は、do-calculusを適用することで導出できる他の識別戦略によっても可能であることを示す。
論文 参考訳(メタデータ) (2022-06-14T09:00:17Z) - Instance-Dependent Label-Noise Learning with Manifold-Regularized
Transition Matrix Estimation [172.81824511381984]
遷移行列 T(x) は、インスタンス依存ノイズ(IDN)の下では特定できない
我々は、T(x) の幾何学について、「より近い2つのインスタンスは、それに対応する遷移行列がより類似している」という仮定を提案する。
本手法は,難解なIDNの下でのラベルノイズ学習において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-06-06T04:12:01Z) - Learning to Rank Anomalies: Scalar Performance Criteria and Maximization
of Two-Sample Rank Statistics [0.0]
本稿では,観測結果の異常度を反映した特徴空間上で定義されたデータ駆動スコアリング関数を提案する。
このスコアリング関数は、よく設計された二項分類問題を通じて学習される。
本稿では,予備的な数値実験による方法論について解説する。
論文 参考訳(メタデータ) (2021-09-20T14:45:56Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - Learning Noise Transition Matrix from Only Noisy Labels via Total
Variation Regularization [88.91872713134342]
本稿では,雑音遷移行列を推定し,同時に分類器を学習する理論的基礎付け手法を提案する。
提案手法の有効性を,ベンチマークおよび実世界のデータセットを用いた実験により示す。
論文 参考訳(メタデータ) (2021-02-04T05:09:18Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。