論文の概要: Interpretable Artificial Intelligence through the Lens of Feature
Interaction
- arxiv url: http://arxiv.org/abs/2103.03103v1
- Date: Mon, 1 Mar 2021 23:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:52:13.447958
- Title: Interpretable Artificial Intelligence through the Lens of Feature
Interaction
- Title(参考訳): 機能相互作用レンズによる解釈可能な人工知能
- Authors: Michael Tsang, James Enouen, Yan Liu
- Abstract要約: この研究はまず、機能相互作用の歴史的かつ近代的な重要性を説明し、続いて、機能相互作用を明示的に考慮する近代的解釈可能性法を調査した。
この調査は、機械学習の解釈可能性のより大きな文脈における機能相互作用の重要性を明らかにすることを目的としている。
- 参考スコア(独自算出の注目度): 11.217688723644454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretation of deep learning models is a very challenging problem because
of their large number of parameters, complex connections between nodes, and
unintelligible feature representations. Despite this, many view
interpretability as a key solution to trustworthiness, fairness, and safety,
especially as deep learning is applied to more critical decision tasks like
credit approval, job screening, and recidivism prediction. There is an
abundance of good research providing interpretability to deep learning models;
however, many of the commonly used methods do not consider a phenomenon called
"feature interaction." This work first explains the historical and modern
importance of feature interactions and then surveys the modern interpretability
methods which do explicitly consider feature interactions. This survey aims to
bring to light the importance of feature interactions in the larger context of
machine learning interpretability, especially in a modern context where deep
learning models heavily rely on feature interactions.
- Abstract(参考訳): ディープラーニングモデルの解釈は、多数のパラメータ、ノード間の複雑な接続、そして理解不能な特徴表現のため、非常に難しい問題である。
これにもかかわらず、多くの人は、信頼性、公平性、安全性の鍵となるソリューションとして解釈可能性を検討している。特に、信用承認、ジョブスクリーニング、およびレシディズム予測のようなより重要な決定タスクにディープラーニングが適用されるためである。
深層学習モデルに解釈可能性を提供する優れた研究はたくさんありますが、一般的に使用される多くの方法は「機能相互作用」と呼ばれる現象を考慮していません。
この研究はまず、機能相互作用の歴史的かつ近代的な重要性を説明し、続いて、機能相互作用を明示的に考慮する近代的解釈可能性法を調査した。
この調査は、特にディープラーニングモデルが機能相互作用に大きく依存する現代の状況において、機械学習の解釈可能性のより大きな文脈における機能相互作用の重要性を明らかにすることを目的としている。
関連論文リスト
- Interpretability in Machine Learning: on the Interplay with
Explainability, Predictive Performances and Models [3.341112547288814]
解釈可能性は最近、機械学習の分野で注目を集めている。
機械学習における重要な概念である説明可能性、予測性能、機械学習モデルとの関係について論じる。
論文 参考訳(メタデータ) (2023-11-20T02:31:08Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - DeepSI: Interactive Deep Learning for Semantic Interaction [5.188825486231326]
本稿では,深層学習をループ内対話型感触パイプラインに統合するフレームワークを提案する。
ディープラーニングは生データから意味のある表現を抽出し、意味的相互作用推論を改善する。
意味的相互作用を利用して深層学習表現を微調整し、意味的相互作用推論を改善する。
論文 参考訳(メタデータ) (2023-05-26T18:05:57Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - Relate to Predict: Towards Task-Independent Knowledge Representations
for Reinforcement Learning [11.245432408899092]
強化学習は、エージェントが複雑なタスクを学習できるようにする。
知識を解釈し、タスク間で再利用することは難しい。
本稿では,対象中心の知識分離を明示する帰納的バイアスを導入する。
知識分離における明示性の程度は、学習の高速化、精度の向上、一般化の向上、理解可能性の向上と相関していることを示す。
論文 参考訳(メタデータ) (2022-12-10T13:33:56Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Interpreting and improving deep-learning models with reality checks [13.287382944078562]
この章では、1つの予測のために特徴と特徴グループに重要さをもたらすことによってモデルを解釈することを目的とした最近の研究について取り上げる。
これらの属性は、ニューラルネットワークの一般化を直接的に改善したり、あるいは単純なモデルに蒸留するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-08-16T00:58:15Z) - Evaluating the Interpretability of Generative Models by Interactive
Reconstruction [30.441247705313575]
生成モデル表現の人間解釈可能性の定量化を課題とする。
このタスクのパフォーマンスは、ベースラインアプローチよりも、絡み合ったモデルと絡み合ったモデルをはるかに確実に区別する。
論文 参考訳(メタデータ) (2021-02-02T02:38:14Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。