論文の概要: Relational Concept Based Models
- arxiv url: http://arxiv.org/abs/2308.11991v1
- Date: Wed, 23 Aug 2023 08:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 15:05:51.298008
- Title: Relational Concept Based Models
- Title(参考訳): 関係概念に基づくモデル
- Authors: Pietro Barbiero, Francesco Giannini, Gabriele Ciravegna, Michelangelo
Diligenti, Giuseppe Marra
- Abstract要約: 概念ベースモデル(CBM)は問題を解くために設計されていないが、関係モデルはCBMとして解釈できない。
実験の結果,リレーショナルCBMは量子化概念に基づく説明の生成を支援することがわかった。
- 参考スコア(独自算出の注目度): 14.281078288592461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The design of interpretable deep learning models working in relational
domains poses an open challenge: interpretable deep learning methods, such as
Concept-Based Models (CBMs), are not designed to solve relational problems,
while relational models are not as interpretable as CBMs. To address this
problem, we propose Relational Concept-Based Models, a family of relational
deep learning methods providing interpretable task predictions. Our
experiments, ranging from image classification to link prediction in knowledge
graphs, show that relational CBMs (i) match generalization performance of
existing relational black-boxes (as opposed to non-relational CBMs), (ii)
support the generation of quantified concept-based explanations, (iii)
effectively respond to test-time interventions, and (iv) withstand demanding
settings including out-of-distribution scenarios, limited training data
regimes, and scarce concept supervisions.
- Abstract(参考訳): 概念ベースモデル(CBM)のような解釈可能なディープラーニング手法は、関係的な問題を解決するために設計されていないが、リレーショナルモデルはCBMほど解釈できない。
この問題を解決するために,解釈可能なタスク予測を提供する関係的深層学習手法のファミリーであるリレーショナル概念ベースモデルを提案する。
画像分類からナレッジグラフのリンク予測まで多岐にわたる実験により,関係性cbmが示唆された。
(i)既存の関係性ブラックボックスの一般化性能(非関係性cbmとは対照的に)
二 量化概念に基づく説明の生成を支援すること。
(iii)試験時間介入に効果的に対応すること、及び
(四)配当外のシナリオ、限られた訓練データ体制、コンセプト監督の不足等、必要な設定に耐える。
関連論文リスト
- Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - SSL Framework for Causal Inconsistency between Structures and
Representations [23.035761299444953]
深層学習と因果発見のクロスポリン化は、画像、ビデオ、テキストなどの統計的でないデータ形式における因果関係の解明を目指す、急成長する研究分野を触媒している。
我々は、不確定データに適した介入戦略を理論的に開発し、因果一貫性条件(CCC)を導出する。
CCCは様々な分野で重要な役割を果たす可能性がある。
論文 参考訳(メタデータ) (2023-10-28T08:29:49Z) - Learning to Receive Help: Intervention-Aware Concept Embedding Models [46.7616863339095]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルの概念セットを使用して予測を構築し、説明することによって、ニューラルネットワークの不透明さに対処する。
近年の研究では、介入効果は概念が介入される順序に大きく依存していることが示されている。
IntCEM(Intervention-Aware Concept Embedding Model)は,テスト時間介入に対するモデルの受容性を改善する新しいCBMアーキテクチャとトレーニングパラダイムである。
論文 参考訳(メタデータ) (2023-09-29T02:04:24Z) - Sparse Linear Concept Discovery Models [11.138948381367133]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、隠蔽層が人間の理解可能な概念に結びついている一般的なアプローチである。
本稿では,Contrastive Language Imageモデルと単一スパース線形層に基づく,シンプルかつ直感的に解釈可能なフレームワークを提案する。
実験により、我々のフレームワークは、最近のCBMアプローチを精度的に上回るだけでなく、一例あたりの疎度も高いことを示す。
論文 参考訳(メタデータ) (2023-08-21T15:16:19Z) - Incorporating Domain Knowledge in Deep Neural Networks for Discrete
Choice Models [0.5801044612920815]
本稿では,DCMにおけるデータ駆動型アプローチの可能性を拡張するフレームワークを提案する。
これには、必要な関係を表す擬似データサンプルと、その実現度を測定する損失関数が含まれる。
ケーススタディは、このフレームワークの個別選択分析の可能性を示している。
論文 参考訳(メタデータ) (2023-05-30T12:53:55Z) - Interpretable Neural-Symbolic Concept Reasoning [7.1904050674791185]
概念に基づくモデルは、人間の理解可能な概念のセットに基づいてタスクを学習することでこの問題に対処することを目的としている。
本稿では,概念埋め込みに基づく最初の解釈可能な概念ベースモデルであるDeep Concept Reasoner (DCR)を提案する。
論文 参考訳(メタデータ) (2023-04-27T09:58:15Z) - Paired Examples as Indirect Supervision in Latent Decision Models [109.76417071249945]
我々は、ペア化された例を活用して、潜在的な決定を学習するためのより強力な手がかりを提供する方法を紹介します。
DROPデータセット上のニューラルネットワークを用いた合成質問応答の改善に本手法を適用した。
論文 参考訳(メタデータ) (2021-04-05T03:58:30Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - R-VGAE: Relational-variational Graph Autoencoder for Unsupervised
Prerequisite Chain Learning [83.13634692459486]
本稿では,概念リソースノードからなるグラフ内の概念関係を予測するために,グラフオートエンコーダ(VGA-E)と呼ばれるモデルを提案する。
その結果, 教師なし手法は, グラフベースの半教師付き手法やベースライン法よりも9.77%, 10.47%, 前提条件関係予測精度とF1スコアに優れていた。
提案手法は,教師なし事前学習のタスクに深層学習表現を適用しようとする最初のグラフベースモデルである。
論文 参考訳(メタデータ) (2020-04-22T14:48:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。