論文の概要: Interpretable Artificial Intelligence through the Lens of Feature
Interaction
- arxiv url: http://arxiv.org/abs/2103.03103v1
- Date: Mon, 1 Mar 2021 23:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:52:13.447958
- Title: Interpretable Artificial Intelligence through the Lens of Feature
Interaction
- Title(参考訳): 機能相互作用レンズによる解釈可能な人工知能
- Authors: Michael Tsang, James Enouen, Yan Liu
- Abstract要約: この研究はまず、機能相互作用の歴史的かつ近代的な重要性を説明し、続いて、機能相互作用を明示的に考慮する近代的解釈可能性法を調査した。
この調査は、機械学習の解釈可能性のより大きな文脈における機能相互作用の重要性を明らかにすることを目的としている。
- 参考スコア(独自算出の注目度): 11.217688723644454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretation of deep learning models is a very challenging problem because
of their large number of parameters, complex connections between nodes, and
unintelligible feature representations. Despite this, many view
interpretability as a key solution to trustworthiness, fairness, and safety,
especially as deep learning is applied to more critical decision tasks like
credit approval, job screening, and recidivism prediction. There is an
abundance of good research providing interpretability to deep learning models;
however, many of the commonly used methods do not consider a phenomenon called
"feature interaction." This work first explains the historical and modern
importance of feature interactions and then surveys the modern interpretability
methods which do explicitly consider feature interactions. This survey aims to
bring to light the importance of feature interactions in the larger context of
machine learning interpretability, especially in a modern context where deep
learning models heavily rely on feature interactions.
- Abstract(参考訳): ディープラーニングモデルの解釈は、多数のパラメータ、ノード間の複雑な接続、そして理解不能な特徴表現のため、非常に難しい問題である。
これにもかかわらず、多くの人は、信頼性、公平性、安全性の鍵となるソリューションとして解釈可能性を検討している。特に、信用承認、ジョブスクリーニング、およびレシディズム予測のようなより重要な決定タスクにディープラーニングが適用されるためである。
深層学習モデルに解釈可能性を提供する優れた研究はたくさんありますが、一般的に使用される多くの方法は「機能相互作用」と呼ばれる現象を考慮していません。
この研究はまず、機能相互作用の歴史的かつ近代的な重要性を説明し、続いて、機能相互作用を明示的に考慮する近代的解釈可能性法を調査した。
この調査は、特にディープラーニングモデルが機能相互作用に大きく依存する現代の状況において、機械学習の解釈可能性のより大きな文脈における機能相互作用の重要性を明らかにすることを目的としている。
関連論文リスト
- Data Science Principles for Interpretable and Explainable AI [0.7581664835990121]
解釈可能でインタラクティブな機械学習は、複雑なモデルをより透明で制御しやすいものにすることを目的としている。
本論は, この分野における文献の発達から重要な原則を合成するものである。
論文 参考訳(メタデータ) (2024-05-17T05:32:27Z) - Heterogeneous Contrastive Learning for Foundation Models and Beyond [73.74745053250619]
ビッグデータと人工知能の時代において、新しいパラダイムは、大規模な異種データをモデル化するために、対照的な自己教師付き学習を活用することである。
本調査は基礎モデルの異種コントラスト学習の現況を批判的に評価する。
論文 参考訳(メタデータ) (2024-03-30T02:55:49Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - DeepSI: Interactive Deep Learning for Semantic Interaction [5.188825486231326]
本稿では,深層学習をループ内対話型感触パイプラインに統合するフレームワークを提案する。
ディープラーニングは生データから意味のある表現を抽出し、意味的相互作用推論を改善する。
意味的相互作用を利用して深層学習表現を微調整し、意味的相互作用推論を改善する。
論文 参考訳(メタデータ) (2023-05-26T18:05:57Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - Relate to Predict: Towards Task-Independent Knowledge Representations
for Reinforcement Learning [11.245432408899092]
強化学習は、エージェントが複雑なタスクを学習できるようにする。
知識を解釈し、タスク間で再利用することは難しい。
本稿では,対象中心の知識分離を明示する帰納的バイアスを導入する。
知識分離における明示性の程度は、学習の高速化、精度の向上、一般化の向上、理解可能性の向上と相関していることを示す。
論文 参考訳(メタデータ) (2022-12-10T13:33:56Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Interpreting and improving deep-learning models with reality checks [13.287382944078562]
この章では、1つの予測のために特徴と特徴グループに重要さをもたらすことによってモデルを解釈することを目的とした最近の研究について取り上げる。
これらの属性は、ニューラルネットワークの一般化を直接的に改善したり、あるいは単純なモデルに蒸留するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-08-16T00:58:15Z) - Evaluating the Interpretability of Generative Models by Interactive
Reconstruction [30.441247705313575]
生成モデル表現の人間解釈可能性の定量化を課題とする。
このタスクのパフォーマンスは、ベースラインアプローチよりも、絡み合ったモデルと絡み合ったモデルをはるかに確実に区別する。
論文 参考訳(メタデータ) (2021-02-02T02:38:14Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。