論文の概要: Optimizing Data Shapley Interaction Calculation from O(2^n) to O(t n^2)
for KNN models
- arxiv url: http://arxiv.org/abs/2304.01224v1
- Date: Sun, 2 Apr 2023 06:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 17:13:44.366480
- Title: Optimizing Data Shapley Interaction Calculation from O(2^n) to O(t n^2)
for KNN models
- Title(参考訳): knnモデルに対するo(2^n)からo(t n^2)へのデータシェープリー相互作用計算の最適化
- Authors: Mohamed Karim Belaid, Dorra El Mekki, Maximilian Rabus, Eyke
H\"ullermeier
- Abstract要約: STI-KNNは、O(t n2)時間におけるKNNモデルに対する正確なペア相互作用シェープ値を計算する革新的なアルゴリズムである。
STI-KNNを使用することで、個々のデータポイントの価値を効率よく正確に評価することができ、トレーニング結果が改善され、最終的には人工知能アプリケーションの有効性が向上する。
- 参考スコア(独自算出の注目度): 2.365702128814616
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the rapid growth of data availability and usage, quantifying the added
value of each training data point has become a crucial process in the field of
artificial intelligence. The Shapley values have been recognized as an
effective method for data valuation, enabling efficient training set
summarization, acquisition, and outlier removal. In this paper, we introduce
"STI-KNN", an innovative algorithm that calculates the exact pair-interaction
Shapley values for KNN models in O(t n^2) time, which is a significant
improvement over the O(2^n)$ time complexity of baseline methods. By using
STI-KNN, we can efficiently and accurately evaluate the value of individual
data points, leading to improved training outcomes and ultimately enhancing the
effectiveness of artificial intelligence applications.
- Abstract(参考訳): データ可用性と利用の急激な増加に伴い、各トレーニングデータポイントの付加価値の定量化は、人工知能分野において重要なプロセスとなっている。
Shapleyの値はデータ評価の効果的な方法として認識されており、効率的なトレーニングセットの要約、取得、アウトラヤ除去を可能にしている。
本稿では,ベースライン法のo(2^n)$時間複雑性よりも大幅に改善した,knモデルの正確な対相互作用シェープリー値をo(t n^2)時間で計算する革新的なアルゴリズムであるsti-knnを提案する。
sti-knnを用いることで、個々のデータポイントの価値を効率的かつ正確に評価し、トレーニング結果の改善と、最終的には人工知能アプリケーションの有効性を高めることができる。
関連論文リスト
- Fast Evaluation of DNN for Past Dataset in Incremental Learning [0.0]
本稿では,過去のデータセットの精度への影響を迅速に評価する手法を提案する。
過去のデータセットのパラメータ値の勾配は、トレーニング前にDNNを実行して抽出する。
提案手法は,一定の時間で追加トレーニングによる精度変化を推定できる。
論文 参考訳(メタデータ) (2024-05-10T07:55:08Z) - Efficient Data Shapley for Weighted Nearest Neighbor Algorithms [47.62605581521535]
WKNN-Shapleyは、重み付き$K$近辺アルゴリズム(WKNN-Shapley)のためのデータ共有の効率的な計算法である
我々は、WKNN-Shapleyの計算効率と、データ品質を非重み付きと比較した場合の優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-20T03:34:18Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - LAVA: Data Valuation without Pre-Specified Learning Algorithms [20.578106028270607]
我々は、下流学習アルゴリズムに不利な方法でトレーニングデータを評価できる新しいフレームワークを導入する。
本研究では,訓練と検証セット間の非伝統的なクラスワイドワッサースタイン距離に基づいて,トレーニングセットに関連する検証性能のプロキシを開発する。
距離は、特定のリプシッツ条件下での任意のモデルに対する検証性能の上限を特徴付けることを示す。
論文 参考訳(メタデータ) (2023-04-28T19:05:16Z) - A Note on "Efficient Task-Specific Data Valuation for Nearest Neighbor
Algorithms" [18.65808473565554]
Jiaらによると、K-Nearest Neighbors(KNN)モデルでは、Data Shapleyのアルゴリズムは驚くほどシンプルで効率的である。
KNNモデルの性能をよりよく反映した、より自然で解釈可能なユーティリティ関数を提案する。
我々の新しいアプローチは、ソフトラベルKNNSVと呼ばれ、元の方法と同じ時間を達成する。
論文 参考訳(メタデータ) (2023-04-09T15:31:53Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。