論文の概要: Toward Unsupervised Outlier Model Selection
- arxiv url: http://arxiv.org/abs/2211.01834v1
- Date: Thu, 3 Nov 2022 14:14:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 13:44:24.412157
- Title: Toward Unsupervised Outlier Model Selection
- Title(参考訳): 教師なしアウトリアーモデル選択に向けて
- Authors: Yue Zhao, Sean Zhang, Leman Akoglu
- Abstract要約: ELECTは、ラベルなしで新しいデータセット上で有効なモデルを選択するための新しいアプローチである。
メタラーニング(メタラーニング、メタラーニング、メタラーニング、メタラーニング、メタラーニング、メタラーニング、メタラーニング、メタラーニング、メタラーニングなど)に基づく。
オンデマンドでアウトプットを提供し、さまざまな時間予算に対応できる。
- 参考スコア(独自算出の注目度): 20.12322454417006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today there exists no shortage of outlier detection algorithms in the
literature, yet the complementary and critical problem of unsupervised outlier
model selection (UOMS) is vastly understudied. In this work we propose ELECT, a
new approach to select an effective candidate model, i.e. an outlier detection
algorithm and its hyperparameter(s), to employ on a new dataset without any
labels. At its core, ELECT is based on meta-learning; transferring prior
knowledge (e.g. model performance) on historical datasets that are similar to
the new one to facilitate UOMS. Uniquely, it employs a dataset similarity
measure that is performance-based, which is more direct and goal-driven than
other measures used in the past. ELECT adaptively searches for similar
historical datasets, as such, it can serve an output on-demand, being able to
accommodate varying time budgets. Extensive experiments show that ELECT
significantly outperforms a wide range of basic UOMS baselines, including no
model selection (always using the same popular model such as iForest) as well
as more recent selection strategies based on meta-features.
- Abstract(参考訳): 現在、文献には外れ値検出アルゴリズムが不足していないが、教師なしの外れ値モデル選択(UOMS)の相補的および重要な問題は大いに検討されている。
そこで本研究では,提案手法であるelectを提案する。outlier detection algorithm と hyperparameter(s) を用いて,ラベルを伴わない新しいデータセットを探索する手法である。
ELECTはメタラーニングに基づいており、UOMSを促進するために新しいものと類似した過去のデータセットに事前の知識(例えばモデルパフォーマンス)を転送する。
ユニークなことに、データセットの類似度尺度はパフォーマンスに基づいており、これは過去に使用された他の指標よりも直接的で目標駆動である。
ELECTは、同様の過去のデータセットを適応的に検索するので、オンデマンドでアウトプットを提供し、さまざまな時間予算に対応できる。
大規模な実験により、ELECTは、モデル選択(iForestのような同じ人気モデルを使うことが多い)や、メタ機能に基づいたより最近の選択戦略を含む、幅広い基本的UOMSベースラインを著しく上回ります。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - Zero-shot Outlier Detection via Prior-data Fitted Networks: Model Selection Bygone! [28.823740273813296]
外乱検知(OD)は環境モニタリング、サイバーセキュリティ、ファイナンス、医療に多くの応用がある。
本質的に教師なしのタスクであるモデル選択は、ラベルの監督なしにODにとって重要なボトルネックとなる。
本稿では,0/0ショットODのためのFoMo-0Dを提案する。
論文 参考訳(メタデータ) (2024-09-09T14:41:24Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Take the essence and discard the dross: A Rethinking on Data Selection for Fine-Tuning Large Language Models [38.39395973523944]
本稿では,データ選択のための3段階のスキームを提案し,既存の作品のレビューを行う。
データ特化ラベルとモデル特化ラベルを併用したよりターゲット的な手法の方が効率が良いことが判明した。
論文 参考訳(メタデータ) (2024-06-20T08:58:58Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - DsDm: Model-Aware Dataset Selection with Datamodels [81.01744199870043]
標準的なプラクティスは、データ品質という人間の考え方にマッチする例をフィルタリングすることです。
質の高い"データソースとの類似性に応じた選択は、ランダムに選択するデータに比べてパフォーマンスが向上しない(さらに傷つく)可能性がある。
我々のフレームワークは、データ品質に関する手作業による概念を回避し、学習プロセスがターゲットタスクの予測にデータポイントをトレーニングする方法を明確にモデル化する。
論文 参考訳(メタデータ) (2024-01-23T17:22:00Z) - Self-Evolved Diverse Data Sampling for Efficient Instruction Tuning [47.02160072880698]
モデル自体が等しくあるいはそれ以上に効果的であるサブセットを積極的にサンプリングできる自己進化メカニズムを導入します。
データサンプリング技術の鍵は、選択したサブセットの多様性の向上にあります。
3つのデータセットとベンチマークにわたる大規模な実験は、DiverseEvolの有効性を示している。
論文 参考訳(メタデータ) (2023-11-14T14:10:40Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Automating Outlier Detection via Meta-Learning [37.736124230543865]
メタ学習をベースとした,Overier検出のためのモデル選択のための,最初の原則付きデータ駆動型アプローチであるMetaODを開発した。
検出モデルの選択におけるMetaODの有効性を示す。
この新しい問題をさらに研究するために、私たちはメタラーニングシステム全体、ベンチマーク環境、テストベッドデータセットをオープンソース化しました。
論文 参考訳(メタデータ) (2020-09-22T15:14:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。