論文の概要: Explaining AutoClustering: Uncovering Meta-Feature Contribution in AutoML for Clustering
- arxiv url: http://arxiv.org/abs/2602.18348v1
- Date: Fri, 20 Feb 2026 17:01:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.386621
- Title: Explaining AutoClustering: Uncovering Meta-Feature Contribution in AutoML for Clustering
- Title(参考訳): AutoClusteringの説明: クラスタリングのためのAutoMLにおけるメタ機能コントリビューションの発見
- Authors: Matheus Camilo da Silva, Leonardo Arrighi, Ana Carolina Lorena, Sylvio Barbon Junior,
- Abstract要約: AutoClusteringメソッドは、データセットのメタ機能よりもメタ学習を活用することが多い。
これにより信頼性、バイアス診断、効率的なメタ機能エンジニアリングが制限される。
本研究は、教師なし学習自動化における意思決定透明性を高めるための実践的基盤を提供する。
- 参考スコア(独自算出の注目度): 0.6487259764989486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AutoClustering methods aim to automate unsupervised learning tasks, including algorithm selection (AS), hyperparameter optimization (HPO), and pipeline synthesis (PS), by often leveraging meta-learning over dataset meta-features. While these systems often achieve strong performance, their recommendations are often difficult to justify: the influence of dataset meta-features on algorithm and hyperparameter choices is typically not exposed, limiting reliability, bias diagnostics, and efficient meta-feature engineering. This limits reliability and diagnostic insight for further improvements. In this work, we investigate the explainability of the meta-models in AutoClustering. We first review 22 existing methods and organize their meta-features into a structured taxonomy. We then apply a global explainability technique (i.e., Decision Predicate Graphs) to assess feature importance within meta-models from selected frameworks. Finally, we use local explainability tools such as SHAP (SHapley Additive exPlanations) to analyse specific clustering decisions. Our findings highlight consistent patterns in meta-feature relevance, identify structural weaknesses in current meta-learning strategies that can distort recommendations, and provide actionable guidance for more interpretable Automated Machine Learning (AutoML) design. This study therefore offers a practical foundation for increasing decision transparency in unsupervised learning automation.
- Abstract(参考訳): AutoClusteringは、アルゴリズム選択(AS)、ハイパーパラメータ最適化(HPO)、パイプライン合成(PS)などの教師なし学習タスクを自動化することを目的としており、データセットのメタ機能よりもメタラーニングを活用することが多い。
アルゴリズムとハイパーパラメータ選択に対するデータセットのメタ機能の影響は、一般的には公開されず、信頼性の制限、バイアス診断、効率的なメタ機能エンジニアリングである。
これにより、さらなる改善のための信頼性と診断の洞察が制限される。
本稿では,AutoClusteringにおけるメタモデルの説明可能性について検討する。
まず,22の既存手法を概説し,そのメタ特徴を構造分類に整理した。
次に、選択したフレームワークからメタモデル内の特徴の重要性を評価するために、グローバルな説明可能性技術(例えば、決定精度グラフ)を適用します。
最後に、SHAP(SHapley Additive exPlanations)のようなローカルな説明可能性ツールを使用して、特定のクラスタリング決定を分析する。
本研究は,メタ機能関連における一貫したパターンを強調し,推奨を歪めるメタ学習戦略における構造的弱点を特定し,より解釈可能な自動機械学習(AutoML)設計のための実用的なガイダンスを提供する。
そこで本研究では,教師なし学習自動化における意思決定透明性を高めるための実践的基盤を提供する。
関連論文リスト
- MacNet: An End-to-End Manifold-Constrained Adaptive Clustering Network for Interpretable Whole Slide Image Classification [9.952997875404634]
クラスタリングに基づくアプローチは、説明可能な意思決定プロセスを提供するが、高次元の特徴と意味的にあいまいなセントロイドに悩まされる。
本稿では、グラスマン再埋め込みと多様体適応クラスタリングを統合したエンドツーエンドMILフレームワークを提案する。
マルチセントのWSIデータセットの実験では、1) クラスタを組み込んだモデルは、グレーディング精度と解釈可能性の両方において優れたパフォーマンスを実現し、2) エンドツーエンドの学習は、より良い特徴表現を洗練し、許容できるリソースを必要とします。
論文 参考訳(メタデータ) (2026-02-16T06:43:36Z) - Control Reinforcement Learning: Interpretable Token-Level Steering of LLMs via Sparse Autoencoder Features [1.5874067490843806]
Control Reinforcement Learningは、各トークンでステアリングするためのSAE機能を選択するポリシーをトレーニングし、解釈可能な介入ログを生成する。
Adaptive Feature Maskingは、単一機能解釈性を維持しながら、多様な機能発見を促進する。
MMLU、BBQ、GSM8K、HarmBench、XSTestにわたるGemma 2Bでは、CRLは、トークン単位の介入ログを提供しながら改善されている。
論文 参考訳(メタデータ) (2026-02-11T02:28:49Z) - DeepCAVE: A Visualization and Analysis Tool for Automated Machine Learning [71.68388452009194]
インタラクティブな可視化と分析のためのツールであるDeepCAVEを紹介し,HPOに関する知見を提供する。
インタラクティブなダッシュボードを通じて、研究者、データサイエンティスト、MLエンジニアはHPOプロセスのさまざまな側面を探索することができる。
DeepCAVEはHPOとMLの設計レベルでの解釈可能性に貢献し、将来より堅牢で効率的な方法論の開発を促進することを目指している。
論文 参考訳(メタデータ) (2025-12-01T15:45:30Z) - SCAN: Structured Capability Assessment and Navigation for LLMs [54.54085382131134]
textbfSCAN (Structured Capability Assessment and Navigation) は、大規模言語モデルの詳細な特徴付けを可能にする実用的なフレームワークである。
SCANには4つの重要なコンポーネントが含まれている。
TaxBuilder – クエリから機能表示タグを抽出して階層的な分類構造を構築する。
RealMixは、各機能タグに対する十分な評価データを保証するクエリ合成とフィルタリングのメカニズムである。
PC$2$ベースのLCM-as-a-Judge法は従来のLCM-as-a-Judge法と比較して大幅に精度が向上する
論文 参考訳(メタデータ) (2025-05-10T16:52:40Z) - Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは、表現空間内の高レベル認知信号をキャプチャすることで、メタ認知スコアを定量化する。
MeCoは微調整不要で、最小限のコストがかかる。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - Deciphering AutoML Ensembles: cattleia's Assistance in Decision-Making [0.0]
Cattleiaは、回帰、マルチクラス、バイナリ分類タスクのアンサンブルを解読するアプリケーションである。
Auto-Sklearn、AutoGluon、FLAMLという3つのAutoMLパッケージで構築されたモデルで動作する。
論文 参考訳(メタデータ) (2024-03-19T11:56:21Z) - AutoAct: Automatic Agent Learning from Scratch for QA via Self-Planning [54.47116888545878]
AutoActはQAのための自動エージェント学習フレームワークである。
大規模アノテートデータやクローズドソースモデルからの合成計画軌道は依存していない。
論文 参考訳(メタデータ) (2024-01-10T16:57:24Z) - AutoML-GPT: Large Language Model for AutoML [5.9145212342776805]
包括的なツールとライブラリを統合するAutoML-GPTというフレームワークを確立しました。
会話インターフェースを通じて、ユーザーは要求、制約、評価メトリクスを指定できる。
我々は、AutoML-GPTが機械学習タスクに必要な時間と労力を大幅に削減することを示した。
論文 参考訳(メタデータ) (2023-09-03T09:39:49Z) - On Taking Advantage of Opportunistic Meta-knowledge to Reduce
Configuration Spaces for Automated Machine Learning [11.670797168818773]
主要な研究課題は、パフォーマンスの悪いMLパイプラインのコスト評価を事前に回避できるかどうかである。
AutoWeka4MCPSパッケージによる多くの実験は、オポチュニティ/システムメタ知識がMLの結果を改善することを示唆している。
我々は、データセットの「チャレンジ」に対する強い感度、すなわち、予測子の選択における特異性によってパフォーマンスが著しく向上するかどうかを観察する。
論文 参考訳(メタデータ) (2022-08-08T19:22:24Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。