論文の概要: Function Aligned Regression: A Method Explicitly Learns Functional
Derivatives from Data
- arxiv url: http://arxiv.org/abs/2402.06104v2
- Date: Sun, 3 Mar 2024 19:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 00:18:14.293877
- Title: Function Aligned Regression: A Method Explicitly Learns Functional
Derivatives from Data
- Title(参考訳): 関数アライメント回帰:データから関数微分を明示的に学習する手法
- Authors: Dixian Zhu and Livnat Jerby
- Abstract要約: 本稿では,FAR(Function Aligned Regression)を,関数微分を捉えることにより,基底的真理関数に適合する,より効率的かつ効率的な解法として提案する。
提案手法は,6つのベンチマークデータセットから,2つの合成データセットと8つの広範囲な実世界のタスクに対して実効性を示す。
- 参考スコア(独自算出の注目度): 2.4185510826808487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Regression is a fundamental task in machine learning that has garnered
extensive attention over the past decades. The conventional approach for
regression involves employing loss functions that primarily concentrate on
aligning model prediction with the ground truth for each individual data
sample, which, as we show, can result in sub-optimal prediction of the
relationships between the different samples. Recent research endeavors have
introduced novel perspectives by incorporating label similarity information to
regression. However, a notable gap persists in these approaches when it comes
to fully capturing the intricacies of the underlying ground truth function. In
this work, we propose FAR (Function Aligned Regression) as a arguably better
and more efficient solution to fit the underlying function of ground truth by
capturing functional derivatives. We demonstrate the effectiveness of the
proposed method practically on 2 synthetic datasets and on 8 extensive
real-world tasks from 6 benchmark datasets with other 8 competitive baselines.
The code is open-sourced at \url{https://github.com/DixianZhu/FAR}.
- Abstract(参考訳): 回帰は機械学習の基本的なタスクであり、過去数十年にわたって大きな注目を集めてきた。
回帰の従来のアプローチでは、各データサンプルのモデル予測と基底真理の整合に集中する損失関数を採用しており、その結果、異なるサンプル間の関係を最適に予測することができる。
近年,ラベル類似性情報をレグレッションに組み込むことにより,新たな視点を導入している。
しかし、基礎となる基底真理関数の複雑さを完全に把握する上では、これらのアプローチに顕著なギャップが持続する。
本研究では,FAR(Function Aligned Regression)を,関数微分を捉えることにより,基底的真理関数に適合するより優れた,より効率的な解として提案する。
提案手法は,2つの合成データセットと,他の8つの競合ベースラインを持つ6つのベンチマークデータセットからの8つの広範囲な実世界のタスクに対して実効性を示す。
コードは \url{https://github.com/DixianZhu/FAR} でオープンソース化されている。
関連論文リスト
- SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Engression: Extrapolation for Nonlinear Regression? [2.9761801768136253]
補間は、トレーニングサポート外のテストデータに遭遇することが一般的であるため、多くの統計学および機械学習アプリケーションにおいて重要である。
本研究の目的は,トレーニングサポートの境界において,信頼性がすぐに崩壊しない非線形回帰手法を提供することである。
我々の主な貢献は「エングレース」と呼ばれる新しい手法であり、その中核となるのは、前加法雑音モデルに対する分布回帰手法である。
論文 参考訳(メタデータ) (2023-07-03T08:19:00Z) - Shuffled linear regression through graduated convex relaxation [12.614901374282868]
シャッフル線形回帰問題は、入力と出力の対応が不明なデータセットにおける線形関係を復元することを目的としている。
この問題は、調査データを含む広範囲のアプリケーションで発生する。
後最大化目的関数に基づく線形回帰をシャッフルする新しい最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:33:48Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Human Pose Regression with Residual Log-likelihood Estimation [48.30425850653223]
本稿では,Residual Log-likelihood Estimation (RLE) を用いた新たな回帰パラダイムを提案する。
RLEは、トレーニングプロセスを容易にするために、未参照の基盤となる分布ではなく、分布の変化を学習する。
従来の回帰パラダイムと比較して、RLEによる回帰はテスト時間オーバーヘッドを伴わずに、MSCOCOに12.4mAPの改善をもたらす。
論文 参考訳(メタデータ) (2021-07-23T15:06:31Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z) - Variational Bayesian Unlearning [54.26984662139516]
本研究では, ベイズモデルの学習を, 消去する訓練データの小さな部分集合から, ほぼ非学習する問題について検討する。
消去されたデータから完全に学習されていないデータと、過去の信念を完全に忘れていないデータとをトレードオフする証拠を最小化するのと等価であることを示す。
VI を用いたモデルトレーニングでは、完全なデータから近似した(正確には)後続の信念しか得られず、未学習をさらに困難にしている。
論文 参考訳(メタデータ) (2020-10-24T11:53:00Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - A Graph-Based Approach for Active Learning in Regression [37.42533189350655]
アクティブラーニングは、ラベルのないプールから最も重要なデータポイントに注釈を付けることで、ラベル付けの労力を減らすことを目的としている。
回帰法における既存のアクティブラーニングのほとんどは、各アクティブラーニングイテレーションで学習した回帰関数を使用して、クエリする次の情報ポイントを選択する。
本稿では,新しい二部グラフ最適化問題として,逐次およびバッチモードのアクティブレグレッションを定式化する特徴に着目したアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-30T00:59:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。