論文の概要: Function Aligned Regression: A Method Explicitly Learns Functional
Derivatives from Data
- arxiv url: http://arxiv.org/abs/2402.06104v1
- Date: Thu, 8 Feb 2024 23:43:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 18:32:00.730454
- Title: Function Aligned Regression: A Method Explicitly Learns Functional
Derivatives from Data
- Title(参考訳): 関数アライメント回帰:データから関数微分を明示的に学習する手法
- Authors: Dixian Zhu and Livnat Jerby-Arnon
- Abstract要約: 本稿では,FAR(Function Aligned Regression)を,関数微分を捉えることにより,基底的真理関数に適合する,より効率的かつ効率的な解法として提案する。
提案手法は,6つのベンチマークデータセットから,2つの合成データセットと8つの広範囲な実世界のタスクに対して実効性を示す。
- 参考スコア(独自算出の注目度): 2.4185510826808487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Regression is a fundamental task in machine learning that has garnered
extensive attention over the past decades. The conventional approach for
regression involves employing loss functions that primarily concentrate on
aligning model prediction with the ground truth for each individual data
sample, which, as we show, can result in sub-optimal prediction of the
relationships between the different samples. Recent research endeavors have
introduced novel perspectives by incorporating label similarity information to
regression. However, a notable gap persists in these approaches when it comes
to fully capturing the intricacies of the underlying ground truth function. In
this work, we propose FAR (Function Aligned Regression) as a arguably better
and more efficient solution to fit the underlying function of ground truth by
capturing functional derivatives. We demonstrate the effectiveness of the
proposed method practically on 2 synthetic datasets and on 8 extensive
real-world tasks from 6 benchmark datasets with other 8 competitive baselines.
The code is open-sourced at \url{https://github.com/DixianZhu/FAR}.
- Abstract(参考訳): 回帰は機械学習の基本的なタスクであり、過去数十年にわたって大きな注目を集めてきた。
回帰の従来のアプローチでは、各データサンプルのモデル予測と基底真理の整合に集中する損失関数を採用しており、その結果、異なるサンプル間の関係を最適に予測することができる。
近年,ラベル類似性情報をレグレッションに組み込むことにより,新たな視点を導入している。
しかし、基礎となる基底真理関数の複雑さを完全に把握する上では、これらのアプローチに顕著なギャップが持続する。
本研究では,FAR(Function Aligned Regression)を,関数微分を捉えることにより,基底的真理関数に適合するより優れた,より効率的な解として提案する。
提案手法は,2つの合成データセットと,他の8つの競合ベースラインを持つ6つのベンチマークデータセットからの8つの広範囲な実世界のタスクに対して実効性を示す。
コードは \url{https://github.com/DixianZhu/FAR} でオープンソース化されている。
関連論文リスト
- Distributed High-Dimensional Quantile Regression: Estimation Efficiency and Support Recovery [0.0]
我々は高次元線形量子レグレッションのための分散推定とサポート回復に焦点をあてる。
元の量子レグレッションを最小二乗最適化に変換する。
効率的なアルゴリズムを開発し、高い計算と通信効率を享受する。
論文 参考訳(メタデータ) (2024-05-13T08:32:22Z) - Deep Regression Representation Learning with Topology [57.203857643599875]
回帰表現の有効性は,そのトポロジによってどのように影響されるかを検討する。
本稿では,特徴空間の内在次元と位相を対象空間と一致させる正則化器PH-Regを紹介する。
合成および実世界の回帰タスクの実験はPH-Regの利点を示している。
論文 参考訳(メタデータ) (2024-04-22T06:28:41Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - ContrasInver: Ultra-Sparse Label Semi-supervised Regression for
Multi-dimensional Seismic Inversion [7.356328937024184]
コントラインバー(ContrasInver)は、2、3個の井戸の丸太を用いて地震波の逆解析を行う手法である。
実験では、ContrasInverは合成データSEAM Iで最先端の性能を達成した。
オランダのF3とDelftでは,それぞれ3つと2つの井戸ログのみを使用して,信頼性の高い結果をもたらす,初めてのデータ駆動型アプローチである。
論文 参考訳(メタデータ) (2023-02-13T15:19:51Z) - Fine-grained Correlation Loss for Regression [20.175415393263037]
本稿では, 従来の回帰課題を再考し, 微粒化相関損失を直接最適化する手法を提案する。
本手法は,画像品質評価とバイオメトリック計測を含む2つの典型的な超音波画像回帰タスクに対して広範囲に検証する。
論文 参考訳(メタデータ) (2022-07-01T11:25:50Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Variation-Incentive Loss Re-weighting for Regression Analysis on Biased
Data [8.115323786541078]
モデルトレーニング中のデータ歪/バイアスに対処することで回帰分析の精度を向上させることを目的としている。
回帰分析のための勾配降下モデルトレーニングを最適化するために,変分集中損失再重み付け法(VILoss)を提案する。
論文 参考訳(メタデータ) (2021-09-14T10:22:21Z) - Provable Guarantees for Self-Supervised Deep Learning with Spectral
Contrastive Loss [72.62029620566925]
自己教師型学習の最近の研究は、対照的な学習パラダイムを頼りに、最先端の技術の進歩を遂げている。
我々の研究は、正の対の条件的独立性を仮定することなく、対照的な学習を分析する。
本稿では,人口増分グラフ上でスペクトル分解を行う損失を提案し,コントラスト学習目的として簡潔に記述することができる。
論文 参考訳(メタデータ) (2021-06-08T07:41:02Z) - Robust Locality-Aware Regression for Labeled Data Classification [5.432221650286726]
本稿では,ロバスト局所性認識回帰(RLAR)という特徴抽出フレームワークを提案する。
本モデルでは,クラス間の平均差を使わずに,適応的に境界表現学習を行うために再ターゲット回帰を導入する。
外れ値の乱れを緩和し、過度な適合を防止するため、L2,1ノルムによる正規化項とともに回帰項と局所性を考慮した項を計測する。
論文 参考訳(メタデータ) (2020-06-15T11:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。