論文の概要: Concept Embedding Analysis: A Review
- arxiv url: http://arxiv.org/abs/2203.13909v1
- Date: Fri, 25 Mar 2022 20:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-03 04:07:47.472080
- Title: Concept Embedding Analysis: A Review
- Title(参考訳): 概念埋め込み分析:レビュー
- Authors: Gesina Schwalbe
- Abstract要約: ディープニューラルネットワーク(DNN)は、人間のマシンシステムの安全性、セキュリティ、公正性に影響を与える可能性のある多くのアプリケーションに導入されている。
概念(埋め込み)分析(CA)の研究分野はこの問題に対処する。
この研究は、CAの一般的な定義とCAメソッドの分類を確立し、文学からいくつかのアイデアをまとめる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have found their way into many applications with
potential impact on the safety, security, and fairness of
human-machine-systems. Such require basic understanding and sufficient trust by
the users. This motivated the research field of explainable artificial
intelligence (XAI), i.e. finding methods for opening the "black-boxes" DNNs
represent. For the computer vision domain in specific, practical assessment of
DNNs requires a globally valid association of human interpretable concepts with
internals of the model. The research field of concept (embedding) analysis (CA)
tackles this problem: CA aims to find global, assessable associations of
humanly interpretable semantic concepts (e.g., eye, bearded) with internal
representations of a DNN. This work establishes a general definition of CA and
a taxonomy for CA methods, uniting several ideas from literature. That allows
to easily position and compare CA approaches. Guided by the defined notions,
the current state-of-the-art research regarding CA methods and interesting
applications are reviewed. More than thirty relevant methods are discussed,
compared, and categorized. Finally, for practitioners, a survey of fifteen
datasets is provided that have been used for supervised concept analysis. Open
challenges and research directions are pointed out at the end.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、人間のマシンシステムの安全性、セキュリティ、公正性に影響を与える可能性のある多くのアプリケーションに導入されている。
ユーザによる基本的な理解と十分な信頼が必要です。
このことは、説明可能な人工知能(XAI)の研究分野、すなわち「ブラックボックス」DNNが表す方法の発見を動機づけた。
特定のコンピュータビジョン領域において、DNNの実践的評価には、人間の解釈可能な概念とモデルの内部とのグローバルな結合が必要である。
CAは、人間の解釈可能な意味概念(例えば、目、ひげを生やした)とDNNの内部表現のグローバルで評価可能な関連を見つけることを目的としています。
この研究は、CAの一般的な定義とCAメソッドの分類を確立し、文学からいくつかのアイデアをまとめる。
これにより、CAアプローチの配置と比較が容易になります。
定義した概念に導かれ,ca法と興味深い応用に関する最新の研究を概観する。
関連する30以上の方法が議論され、比較され、分類される。
最後に、実践者に対しては、教師付き概念分析に使用される15のデータセットの調査が提供される。
オープンチャレンジと研究の方向性は最後に指摘されます。
関連論文リスト
- Unveiling Ontological Commitment in Multi-Modal Foundation Models [7.485653059927206]
ディープニューラルネットワーク(DNN)は、概念の豊かな表現とそれぞれの推論を自動的に学習する。
そこで本研究では,葉柄概念の集合に対してマルチモーダルDNNから学習したスーパークラス階層を抽出する手法を提案する。
最初の評価研究では、最先端基礎モデルから有意義な存在論的階級階層を抽出できることが示されている。
論文 参考訳(メタデータ) (2024-09-25T17:24:27Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - A survey on Concept-based Approaches For Model Improvement [2.1516043775965565]
概念は人間の思考基盤として知られている。
ディープニューラルネットワーク(DNN)における様々な概念表現とその発見アルゴリズムの体系的レビューと分類について述べる。
また,これらの手法を総合的に調査した最初の論文として,概念に基づくモデル改善文献について詳述する。
論文 参考訳(メタデータ) (2024-03-21T17:09:20Z) - Concept-based Explainable Artificial Intelligence: A Survey [16.580100294489508]
生の機能を説明に利用することは、近年、いくつかの作品で議論されている。
統一された分類と正確なフィールド定義はいまだに欠けている。
本稿では,C-XAIのアプローチを徹底的にレビューすることで,そのギャップを埋める。
論文 参考訳(メタデータ) (2023-12-20T11:27:21Z) - Understanding the (Extra-)Ordinary: Validating Deep Model Decisions with Prototypical Concept-based Explanations [13.60538902487872]
本稿では, 実例的(地域的)かつクラス的(グローバル的)な意思決定戦略をプロトタイプを通じて伝達する, ポストホックなコンセプトベースXAIフレームワークを提案する。
我々は,3つのデータセットにまたがるアウト・オブ・ディストリビューション・サンプル,突発的なモデル行動,データ品質問題同定におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-28T10:53:26Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Analyzing Representations inside Convolutional Neural Networks [8.803054559188048]
本稿では,ネットワークが学習する概念を,一連の入力例をクラスタリングする方法に基づいて分類するフレームワークを提案する。
このフレームワークは教師なしで、入力機能のためのラベルなしで機能する。
提案手法を広範に評価し,人間の理解しやすさとコヒーレントな概念を創出することを示す。
論文 参考訳(メタデータ) (2020-12-23T07:10:17Z) - A Survey on Assessing the Generalization Envelope of Deep Neural
Networks: Predictive Uncertainty, Out-of-distribution and Adversarial Samples [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くのアプリケーションで最先端のパフォーマンスを達成する。
入力を受けたDNNが、通常、その決定基準が不透明であるため、正しい出力を提供するかどうかを事前に判断することは困難である。
本調査は,機械学習手法,特にDNNの一般化性能について,大規模フレームワーク内の3つの分野を関連づけるものである。
論文 参考訳(メタデータ) (2020-08-21T09:12:52Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。