論文の概要: The Need for Interpretable Features: Motivation and Taxonomy
- arxiv url: http://arxiv.org/abs/2202.11748v1
- Date: Wed, 23 Feb 2022 19:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 17:05:18.779951
- Title: The Need for Interpretable Features: Motivation and Taxonomy
- Title(参考訳): 解釈可能な特徴の必要性:動機付けと分類
- Authors: Alexandra Zytek, Ignacio Arnaldo, Dongyu Liu, Laure Berti-Equille,
Kalyan Veeramachaneni
- Abstract要約: 我々は、「解釈可能な特徴」という用語は、機械学習の説明の有用性に影響を与える機能の全範囲を捉えるのに十分な具体的あるいは詳細ではないと主張している。
本稿では,(1)解釈可能な機能空間と呼ぶもの,あるいはドメインの専門家が現実の行動を取る上で有用な機能の現状に,より注意を払わなければならない,という3つの重要な教訓を論じる。
- 参考スコア(独自算出の注目度): 69.07189753428553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Through extensive experience developing and explaining machine learning (ML)
applications for real-world domains, we have learned that ML models are only as
interpretable as their features. Even simple, highly interpretable model types
such as regression models can be difficult or impossible to understand if they
use uninterpretable features. Different users, especially those using ML models
for decision-making in their domains, may require different levels and types of
feature interpretability. Furthermore, based on our experiences, we claim that
the term "interpretable feature" is not specific nor detailed enough to capture
the full extent to which features impact the usefulness of ML explanations. In
this paper, we motivate and discuss three key lessons: 1) more attention should
be given to what we refer to as the interpretable feature space, or the state
of features that are useful to domain experts taking real-world actions, 2) a
formal taxonomy is needed of the feature properties that may be required by
these domain experts (we propose a partial taxonomy in this paper), and 3)
transforms that take data from the model-ready state to an interpretable form
are just as essential as traditional ML transforms that prepare features for
the model.
- Abstract(参考訳): 実世界のドメインを対象とした機械学習(ML)アプリケーションの開発と説明を通じて、MLモデルは機能と同じくらい解釈可能であることを学びました。
回帰モデルのようなシンプルで高度に解釈可能なモデル型であっても、非解釈可能な機能を使う場合、理解することは困難または不可能である。
異なるユーザ、特にドメインでの意思決定にMLモデルを使用するユーザは、さまざまなレベルとタイプの機能解釈可能性を必要とする可能性がある。
さらに,我々の経験から,「解釈可能な特徴」という用語は,ml説明の有用性に影響を及ぼす特徴を最大限に把握するのに十分な具体的あるいは詳細なものではないと主張する。
本稿では,3つの重要な教訓について論じる。
1) 解釈可能な機能空間や、現実世界のアクションを取るドメインの専門家に役立つ機能の状態について、さらに注意を払わなければならない。
2) これらのドメインの専門家が必要とする特性について,形式的分類法が必要となる(本論文では部分分類法を提案する)。
3) モデル対応状態から解釈可能な形式にデータを取り込む変換は、モデルの特徴を準備する従来のml変換と同じように必須です。
関連論文リスト
- ELICIT: LLM Augmentation via External In-Context Capability [16.237679215248196]
algは2つのモジュールからなるフレームワークで、タスクベクトルを効果的に保存し再利用する。
algは、モデル機能の適応的な適用を可能にするプラグイン・アンド・プレイパフォーマンス・ブースターとして機能する。
論文 参考訳(メタデータ) (2024-10-12T03:19:06Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Machine Learning vs Deep Learning: The Generalization Problem [0.0]
本研究では,従来の機械学習(ML)モデルとディープラーニング(DL)アルゴリズムの比較能力について,外挿の観点から検討した。
本稿では,MLモデルとDLモデルの両方が指数関数で学習され,学習領域外の値でテストされる経験的分析を提案する。
その結果,ディープラーニングモデルには,学習範囲を超えて一般化する固有の能力があることが示唆された。
論文 参考訳(メタデータ) (2024-03-03T21:42:55Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - A simple probabilistic neural network for machine understanding [0.0]
本稿では,機械理解のためのモデルとして,確率的ニューラルネットワークと内部表現の固定化について論じる。
内部表現は、それが最大関係の原理と、どのように異なる特徴が組み合わされるかについての最大無知を満たすことを要求して導出する。
このアーキテクチャを持つ学習機械は、パラメータやデータの変化に対する表現の連続性など、多くの興味深い特性を享受している、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T13:00:15Z) - Interpreting and improving deep-learning models with reality checks [13.287382944078562]
この章では、1つの予測のために特徴と特徴グループに重要さをもたらすことによってモデルを解釈することを目的とした最近の研究について取り上げる。
これらの属性は、ニューラルネットワークの一般化を直接的に改善したり、あるいは単純なモデルに蒸留するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-08-16T00:58:15Z) - Rich Semantics Improve Few-shot Learning [49.11659525563236]
アノテーションコストを最小限に抑えながら取得できる「クラスレベル」言語記述を用いることで、少ない学習性能を向上できることを示す。
我々は,視覚トークンと意味トークンを関連付けるための前方および後方エンコーディング機構を開発した。
論文 参考訳(メタデータ) (2021-04-26T16:48:27Z) - On Interpretability and Similarity in Concept-Based Machine Learning [2.3986080077861787]
本稿では,協調ゲーム理論の概念を用いて,概念ベース機械学習における分類・クラスタリングプロセスにおける個々の属性の寄与を評価する方法について論じる。
第3の質問に対処するために、大きなコンテキストにおける類似性を用いて属性数を減らす方法を提案する。
論文 参考訳(メタデータ) (2021-02-25T07:57:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。