論文の概要: Robustness of Generalized Median Computation for Consensus Learning in Arbitrary Spaces
- arxiv url: http://arxiv.org/abs/2503.05215v1
- Date: Fri, 07 Mar 2025 08:10:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:21:40.064474
- Title: Robustness of Generalized Median Computation for Consensus Learning in Arbitrary Spaces
- Title(参考訳): 任意の空間における合意学習のための一般化メディア計算のロバスト性
- Authors: Andreas Nienkötter, Sandro Vega-Pons, Xiaoyi Jiang,
- Abstract要約: 一般化中央値計算は、コンセンサス学習の特別な例であり、プロトタイプを見つけるための共通のアプローチである。
我々の知る限りでは、任意の空間に対して、一般の設定においてロバスト性の特性は存在しない。
重み付き一般化中央値計算と非距離関数のロバスト性について述べる。
- 参考スコア(独自算出の注目度): 6.469180077370296
- License:
- Abstract: Robustness in terms of outliers is an important topic and has been formally studied for a variety of problems in machine learning and computer vision. Generalized median computation is a special instance of consensus learning and a common approach to finding prototypes. Related research can be found in numerous problem domains with a broad range of applications. So far, however, robustness of generalized median has only been studied in a few specific spaces. To our knowledge, there is no robustness characterization in a general setting, i.e. for arbitrary spaces. We address this open issue in our work. The breakdown point >=0.5 is proved for generalized median with metric distance functions in general. We also study the detailed behavior in case of outliers from different perspectives. In addition, we present robustness results for weighted generalized median computation and non-metric distance functions. Given the importance of robustness, our work contributes to closing a gap in the literature. The presented results have general impact and applicability, e.g. providing deeper understanding of generalized median computation and practical guidance to avoid non-robust computation.
- Abstract(参考訳): 異常点におけるロバスト性は重要なトピックであり、機械学習やコンピュータビジョンにおける様々な問題に対して公式に研究されている。
一般化中央値計算は、コンセンサス学習の特別な例であり、プロトタイプを見つけるための共通のアプローチである。
関連する研究は、幅広い応用の様々な問題領域で見ることができる。
しかし、これまでのところ、一般化された中央値のロバスト性はいくつかの特定の空間でのみ研究されている。
我々の知る限りでは、任意の空間に対して、一般の設定においてロバスト性の特性は存在しない。
私たちはこのオープンな問題を我々の仕事で解決する。
分解点>=0.5は、一般に距離関数を持つ一般化中央値に対して証明される。
また、異なる視点から外れた場合の詳細な行動についても検討する。
さらに,重み付き一般化中央値計算と非距離関数のロバスト性について述べる。
堅牢性の重要性を考えれば、我々の研究は文学のギャップを埋めることに貢献している。
以上の結果から,一般中央値計算のより深い理解と,非ロバスト計算を避けるための実践的ガイダンスが得られた。
関連論文リスト
- Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Kernel-Based Generalized Median Computation for Consensus Learning [5.177947445379688]
本稿では、正定値カーネルと不定値カーネルの両方に適用可能なカーネルベースの一般化中央値フレームワークを提案する。
オブジェクト間の空間関係は、明示的なベクトル空間よりも、カーネル空間でより正確に表現されていることを示す。
ソフトウェアツールボックスは公開されており、他の研究者が一般化された中央値計算と応用を探求することを奨励している。
論文 参考訳(メタデータ) (2022-09-21T09:09:01Z) - AdAUC: End-to-end Adversarial AUC Optimization Against Long-tail
Problems [102.95119281306893]
我々は、AUCを最適化するための敵の訓練方法を探求するための早期トライアルを提示する。
我々は、AUC最適化問題をサドル点問題として再構成し、目的がインスタンスワイズ関数となる。
我々の分析は, min-max問題の勾配を計算して, 逆例を生成するアルゴリズムが求められているため, 既存の研究と異なる。
論文 参考訳(メタデータ) (2022-06-24T09:13:39Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Domain Generalization via Domain-based Covariance Minimization [4.414778226415752]
本稿では,領域間の条件分布の差を最小限に抑えるために,複数の領域に対する新しい分散測定法を提案する。
小規模なデータセットでは、未確認のテストデータセットよりも優れた一般化性能を示す、より良い定量的結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T19:30:15Z) - Measuring Generalization with Optimal Transport [111.29415509046886]
我々は、マージンを最適輸送コストで正規化する、マージンベースの一般化境界を開発する。
我々の境界は、大規模データセット上でトレーニングデータとネットワークパラメータを与えられた一般化誤差を強く予測する。
論文 参考訳(メタデータ) (2021-06-07T03:04:59Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - High-Dimensional Multi-Task Averaging and Application to Kernel Mean
Embedding [0.0]
マルチタスク平均化問題に対する改善された推定器を提案する。
我々は、この手法が平均二乗誤差の低減をもたらすことを理論的に証明する。
このアプローチの応用は、複数のカーネルの平均埋め込みの推定である。
論文 参考訳(メタデータ) (2020-11-13T07:31:30Z) - ROBIN: a Graph-Theoretic Approach to Reject Outliers in Robust
Estimation using Invariants [30.19476775410544]
外乱は典型的には誤ったデータアソシエーションや特徴マッチングの結果である。
頑健な推定に対する現在のアプローチは、多くの外れ値が存在する場合、正確に見積もることができない。
本稿では, プルー・アウトレーヤへのアプローチについて述べる。
論文 参考訳(メタデータ) (2020-11-07T02:09:33Z) - In Search of Robust Measures of Generalization [79.75709926309703]
我々は、一般化誤差、最適化誤差、過大なリスクのバウンダリを開発する。
経験的に評価すると、これらの境界の大部分は数値的に空白である。
我々は、分散ロバストネスの枠組みの中で、一般化対策を評価するべきであると論じる。
論文 参考訳(メタデータ) (2020-10-22T17:54:25Z) - Modeling Generalization in Machine Learning: A Methodological and
Computational Study [0.8057006406834467]
我々は、機械学習の一般化を評価する際に、トレーニングデータの凸殻の概念を用いる。
機械学習モデルの一般化能力と次元に関するすべての指標との予期せぬ弱い関係を観察する。
論文 参考訳(メタデータ) (2020-06-28T19:06:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。