論文の概要: Fréchet Geodesic Boosting
- arxiv url: http://arxiv.org/abs/2509.18013v1
- Date: Mon, 22 Sep 2025 16:53:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.51698
- Title: Fréchet Geodesic Boosting
- Title(参考訳): Fréchet Geodesic Boosting
- Authors: Yidong Zhou, Su I Iao, Hans-Georg Müller,
- Abstract要約: グラディエント・ブースティングは機械学習の基盤となり、決定木などの基礎学習者が例外的な予測性能を達成することができるようになった。
分散、ネットワーク、多様体値出力などの複雑な構造化されたデータは、従来の手法の課題を提示する。
測地線距離空間に居住する出力に適した新しいアプローチであるFr'echet geodesic boosting (FGBoost)を紹介する。
- 参考スコア(独自算出の注目度): 4.855663359344747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient boosting has become a cornerstone of machine learning, enabling base learners such as decision trees to achieve exceptional predictive performance. While existing algorithms primarily handle scalar or Euclidean outputs, increasingly prevalent complex-structured data, such as distributions, networks, and manifold-valued outputs, present challenges for traditional methods. Such non-Euclidean data lack algebraic structures such as addition, subtraction, or scalar multiplication required by standard gradient boosting frameworks. To address these challenges, we introduce Fr\'echet geodesic boosting (FGBoost), a novel approach tailored for outputs residing in geodesic metric spaces. FGBoost leverages geodesics as proxies for residuals and constructs ensembles in a way that respects the intrinsic geometry of the output space. Through theoretical analysis, extensive simulations, and real-world applications, we demonstrate the strong performance and adaptability of FGBoost, showcasing its potential for modeling complex data.
- Abstract(参考訳): グラディエント・ブースティングは機械学習の基盤となり、決定木などの基礎学習者が例外的な予測性能を達成することができるようになった。
既存のアルゴリズムはスカラーやユークリッドの出力を主に扱うが、分布やネットワーク、多様体値の出力といったより一般的な複雑な構造化データでは従来の手法の課題が提示される。
このような非ユークリッド的データは、標準勾配促進フレームワークで必要とされる加算、減算、スカラー乗算のような代数的構造を欠いている。
これらの課題に対処するために、測地距離空間に居住する出力に適した新しいアプローチであるFr\echet geodesic boosting (FGBoost)を導入する。
FGBoost は測地学を残差のプロキシとして利用し、出力空間の内在幾何学を尊重する方法でアンサンブルを構成する。
理論解析、広範囲なシミュレーション、実世界の応用を通じて、FGBoostの強靭な性能と適応性を実証し、複雑なデータモデリングの可能性を示す。
関連論文リスト
- Geometry-Aware Spiking Graph Neural Network [24.920334588995072]
本稿では,スパイクに基づくニューラルダイナミクスを適応表現学習と統合するGeometry-Aware Spiking Graph Neural Networkを提案する。
複数のベンチマーク実験により、GSGはユークリッドSNNと多様体ベースGNNと比較して精度、堅牢性、エネルギー効率が優れていることが示された。
論文 参考訳(メタデータ) (2025-08-09T02:52:38Z) - Graded Transformers [0.0]
そこで我々は,ベクトル空間上のグレーディングを通じて帰納バイアスを埋め込む新しいシーケンスモデルである Graded Transformer フレームワークを紹介した。
このフレームワークは、以前のモデルの固定グレードの制限を克服し、適応的な特徴優先順位付けを可能にする。
Graded Transformerは、階層的学習とニューロシンボリック推論に対する数学的に原則化されたアプローチを提供する。
論文 参考訳(メタデータ) (2025-07-27T02:34:08Z) - Reinforcement Learning-Based Dynamic Grouping for Tubular Structure Tracking [14.048453741483092]
マルコフ決定過程 (MDP) としてセグメントワイドトラッキングを行う新しいフレームワークを提案する。
提案手法はQ-Learningを利用してセグメントグラフを動的に探索し,エッジウェイトをオンデマンドで計算し,検索空間を適応的に拡張する。
典型的な管状構造データセットに対する実験的な再試行により,本手法は最先端のポイントワイドおよびセグメントワイドアプローチを著しく上回ることを示した。
論文 参考訳(メタデータ) (2025-06-21T11:00:17Z) - LOCAL: Learning with Orientation Matrix to Infer Causal Structure from Time Series Data [51.47827479376251]
LOCALは動的因果構造を復元するための効率的で実装が容易で制約のない手法である。
Asymptotic Causal Learning Mask (ACML) と Dynamic Graph Learning (DGPL)
合成および実世界のデータセットの実験では、LOCALが既存の手法よりも大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2024-10-25T10:48:41Z) - NRGBoost: Energy-Based Generative Boosted Trees [1.0878040851638]
本稿では,XGBoostのような人気ライブラリに実装された2次ブースティングに類似したエネルギーベース生成促進アルゴリズムを提案する。
提案アルゴリズムは,任意の入力変数に対して推論タスクを処理可能な生成モデルを生成する一方で,GBDTと類似の識別性能を実現することができることを示す。
同時に、サンプリングのためのニューラルネットワークベースのモデルとも競合することを示した。
論文 参考訳(メタデータ) (2024-10-04T15:54:02Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Structure-Aware Feature Generation for Zero-Shot Learning [108.76968151682621]
潜在空間と生成ネットワークの両方を学習する際の位相構造を考慮し,SA-GANと呼ばれる新しい構造認識特徴生成手法を提案する。
本手法は,未確認クラスの一般化能力を大幅に向上させ,分類性能を向上させる。
論文 参考訳(メタデータ) (2021-08-16T11:52:08Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。