論文の概要: Interestingness First Classifiers
- arxiv url: http://arxiv.org/abs/2508.19780v1
- Date: Wed, 27 Aug 2025 11:04:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.602746
- Title: Interestingness First Classifiers
- Title(参考訳): 興味ある初等分類器
- Authors: Ryoma Sato,
- Abstract要約: 注目度に応じて特徴を選択できるフレームワークを導入する。
提案手法は, 予期せぬ, まだ予測できない特徴を常に識別する。
ツインペーパーのデータセットでは,本手法は今後,コロンをタイトルとした論文が引用される可能性が高くなるというルールを導出する。
- 参考スコア(独自算出の注目度): 15.107423134754859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most machine learning models are designed to maximize predictive accuracy. In this work, we explore a different goal: building classifiers that are interesting. An ``interesting classifier'' is one that uses unusual or unexpected features, even if its accuracy is lower than the best possible model. For example, predicting room congestion from CO2 levels achieves near-perfect accuracy but is unsurprising. In contrast, predicting room congestion from humidity is less accurate yet more nuanced and intriguing. We introduce EUREKA, a simple framework that selects features according to their perceived interestingness. Our method leverages large language models to rank features by their interestingness and then builds interpretable classifiers using only the selected interesting features. Across several benchmark datasets, EUREKA consistently identifies features that are non-obvious yet still predictive. For example, in the Occupancy Detection dataset, our method favors humidity over CO2 levels and light intensity, producing classifiers that achieve meaningful accuracy while offering insights. In the Twin Papers dataset, our method discovers the rule that papers with a colon in the title are more likely to be cited in the future. We argue that such models can support new ways of knowledge discovery and communication, especially in settings where moderate accuracy is sufficient but novelty and interpretability are valued.
- Abstract(参考訳): ほとんどの機械学習モデルは予測精度を最大化するように設計されている。
本研究では,興味深い分類器の構築という,異なる目標について検討する。
興味深い分類器'は、たとえその精度が最高のモデルよりも低いとしても、異常または予期せぬ特徴を使用するものである。
例えば、CO2レベルから部屋の混雑を予測することは、ほぼ完全な精度を達成できるが、予想外である。
対照的に、湿度から部屋の混雑を予測することは、より正確ではなく、よりニュアンスで興味をそそるものである。
注目度に応じて特徴を選択するシンプルなフレームワークであるEUREKAを紹介する。
提案手法は,大きな言語モデルを用いて特徴のランク付けを行い,選択した特徴のみを用いて解釈可能な分類器を構築する。
いくつかのベンチマークデータセットの中で、EUREKAは一貫して、予期せぬがまだ予測できない機能を特定している。
例えば、Occupancy Detectionデータセットでは、CO2濃度と光強度よりも湿度を優先し、洞察を提供しながら有意義な精度を達成できる分類器を生成する。
ツインペーパーのデータセットでは,本手法は今後,コロンをタイトルとした論文が引用される可能性が高くなるというルールを導出する。
このようなモデルは知識発見とコミュニケーションの新たな方法、特に適度な精度で新規性や解釈性が評価されるような環境では有効である、と我々は主張する。
関連論文リスト
- XNB: Explainable Class-Specific NaIve-Bayes Classifier [0.0]
本稿では,XNB(Explainable Class-Specific Naive Bayes)を紹介する。
XNBは、後方確率を計算するためにカーネル密度推定を使用する。
各クラスの最も関連性の高い機能を分離することで、XNBは、各クラスの最小限の異なるサブセットに機能セットを縮小するだけでなく、モデルがどのように予測を行うかについてより深い洞察を提供する。
論文 参考訳(メタデータ) (2024-11-02T10:28:22Z) - Comprehensive Attribution: Inherently Explainable Vision Model with Feature Detector [30.23453108681447]
Inherently explainable attribution methodはモデル行動の理解を高めることを目的としている。
これは、セレクタ(重要な特徴を特定するために属性マップを生成する)と予測器を協調的に訓練することで達成される。
マスクアウト領域における差別的特徴の存在を阻止する新たな目標を提案する。
我々のモデルは通常のブラックボックスモデルよりも高精度で正確な予測を行う。
論文 参考訳(メタデータ) (2024-07-27T17:45:20Z) - Confidence-Based Model Selection: When to Take Shortcuts for
Subpopulation Shifts [119.22672589020394]
モデル信頼度がモデル選択を効果的に導くことができるConfidence-based Model Selection (CosMoS)を提案する。
我々はCosMoSを,データ分散シフトのレベルが異なる複数のテストセットを持つ4つのデータセットで評価した。
論文 参考訳(メタデータ) (2023-06-19T18:48:15Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - A Gating Model for Bias Calibration in Generalized Zero-shot Learning [18.32369721322249]
汎用ゼロショット学習(GZSL)は,補助情報のみを用いることで,見つからないクラスデータに一般化できるモデルを訓練することを目的とする。
GZSLの主な課題の1つは、トレーニング中に利用可能なクラスデータのみに過度に適合することに起因する、見かけたクラスに対するバイアス付きモデル予測である。
GZSLのための2ストリームオートエンコーダに基づくゲーティングモデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T16:41:06Z) - Optimizing Active Learning for Low Annotation Budgets [6.753808772846254]
ディープラーニングでは、アクティブな学習は通常、微調整によって連続した深層モデルを更新する反復的なプロセスとして実装される。
移行学習にインスパイアされたアプローチを用いてこの問題に対処する。
本稿では,ALプロセスの反復性を利用してより堅牢なサンプルを抽出する新しい取得関数を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:53:10Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。