論文の概要: Interpretable Locally Adaptive Nearest Neighbors
- arxiv url: http://arxiv.org/abs/2011.03904v2
- Date: Wed, 29 Sep 2021 17:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 08:10:29.433522
- Title: Interpretable Locally Adaptive Nearest Neighbors
- Title(参考訳): 地域適応型近隣地区の解釈
- Authors: Jan Philip G\"opfert and Heiko Wersing and Barbara Hammer
- Abstract要約: そこで我々は,局所的に適応的なメトリクスを学習する手法を開発した。
これらのローカルメトリクスはパフォーマンスを向上するだけでなく、自然に解釈できる。
合成データセットについて多数の実験を行い、実世界のベンチマークデータセットにその有用性を示す。
- 参考スコア(独自算出の注目度): 8.052709336750821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When training automated systems, it has been shown to be beneficial to adapt
the representation of data by learning a problem-specific metric. This metric
is global. We extend this idea and, for the widely used family of k nearest
neighbors algorithms, develop a method that allows learning locally adaptive
metrics. These local metrics not only improve performance but are naturally
interpretable. To demonstrate important aspects of how our approach works, we
conduct a number of experiments on synthetic data sets, and we show its
usefulness on real-world benchmark data sets.
- Abstract(参考訳): 自動システムのトレーニングでは,問題固有のメトリクスを学習することで,データの表現に適応することが有用であることが示されている。
この指標はグローバルです。
このアイデアを拡張し、k近傍のアルゴリズムで広く使われているファミリーに対して、局所適応的なメトリクスを学習する手法を開発する。
これらのローカルメトリクスはパフォーマンスを向上するだけでなく、自然に解釈できる。
提案手法の動作に関する重要な側面を示すために,我々は合成データセットについて多数の実験を行い,実世界のベンチマークデータセットにその有用性を示す。
関連論文リスト
- A Universal Metric of Dataset Similarity for Cross-silo Federated Learning [0.0]
フェデレートラーニングは、データ共有なしにモデルトレーニングを容易にするために、医療などの分野でますます使われている。
本稿では,データセットの類似性を評価するための新しい指標を提案する。
本稿では,我々の測定値がモデル性能と堅牢かつ解釈可能な関係を示し,プライバシ保護方式で計算可能であることを示す。
論文 参考訳(メタデータ) (2024-04-29T15:08:24Z) - Piecewise-Linear Manifolds for Deep Metric Learning [8.670873561640903]
教師なしの深度学習は、ラベルなしデータのみを使用して意味表現空間を学習することに焦点を当てる。
本稿では,各低次元線形片が点の小さな近傍でデータ多様体を近似して高次元データ多様体をモデル化することを提案する。
我々は、この類似度推定が、現在の最先端技術の類似度推定よりも基礎的真理と相関していることを実証的に示す。
論文 参考訳(メタデータ) (2024-03-22T06:22:20Z) - Rapid Adaptation in Online Continual Learning: Are We Evaluating It
Right? [135.71855998537347]
オンライン連続学習(OCL)アルゴリズムの適応性を評価するための一般的な手法を,オンライン精度の指標を用いて再検討する。
空白のブラインド分類器でさえ、非現実的に高いオンライン精度を達成できるため、この指標は信頼できない。
既存のOCLアルゴリズムは、オンラインの精度も高いが、有用な情報の保持は不十分である。
論文 参考訳(メタデータ) (2023-05-16T08:29:33Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Classification Performance Metric Elicitation and its Applications [5.5637552942511155]
その実践的関心にもかかわらず、機械学習アプリケーションのためのメトリクスの選択方法に関する正式なガイダンスは限られている。
この論文は、暗黙のユーザの嗜好を最も反映したパフォーマンスメトリックを選択するための原則的なフレームワークとして、メトリクスの誘惑を概説している。
論文 参考訳(メタデータ) (2022-08-19T03:57:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z) - Supervised Categorical Metric Learning with Schatten p-Norms [10.995886294197412]
そこで我々は,分類データにおける計量学習の問題に対処する手法としてCPML(CPML)を提案する。
我々は、データを表すためにValue Distance Metricを使用し、この表現に基づいて新しい距離を提案する。
次に、新しいメトリクスを効率的に学習する方法を示します。
論文 参考訳(メタデータ) (2020-02-26T01:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。