論文の概要: Neural Concept Verifier: Scaling Prover-Verifier Games via Concept Encodings
- arxiv url: http://arxiv.org/abs/2507.07532v2
- Date: Fri, 11 Jul 2025 10:29:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 11:58:22.366568
- Title: Neural Concept Verifier: Scaling Prover-Verifier Games via Concept Encodings
- Title(参考訳): ニューラルコンセプト検証:概念符号化によるプロバー検証ゲームのスケーリング
- Authors: Berkant Turan, Suhrab Asadulla, David Steinmann, Wolfgang Stammer, Sebastian Pokutta,
- Abstract要約: 本稿では、PVGと高次元環境下での非線形分類のための概念符号化を組み合わせた統合フレームワークであるNeural Concept Verifier(NCV)を紹介する。
NCVは、最近の最小限の教師付き概念発見モデルを利用して、生の入力から構造化概念エンコーディングを抽出する。
- 参考スコア(独自算出の注目度): 20.59727124775316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Prover-Verifier Games (PVGs) offer a promising path toward verifiability in nonlinear classification models, they have not yet been applied to complex inputs such as high-dimensional images. Conversely, Concept Bottleneck Models (CBMs) effectively translate such data into interpretable concepts but are limited by their reliance on low-capacity linear predictors. In this work, we introduce the Neural Concept Verifier (NCV), a unified framework combining PVGs with concept encodings for interpretable, nonlinear classification in high-dimensional settings. NCV achieves this by utilizing recent minimally supervised concept discovery models to extract structured concept encodings from raw inputs. A prover then selects a subset of these encodings, which a verifier -- implemented as a nonlinear predictor -- uses exclusively for decision-making. Our evaluations show that NCV outperforms CBM and pixel-based PVG classifier baselines on high-dimensional, logically complex datasets and also helps mitigate shortcut behavior. Overall, we demonstrate NCV as a promising step toward performative, verifiable AI.
- Abstract(参考訳): Prover-Verifier Games (PVGs) は非線形分類モデルにおいて検証可能性への有望な道を提供するが、高次元画像のような複雑な入力には適用されていない。
逆に、Concept Bottleneck Models (CBM) は、これらのデータを解釈可能な概念に変換するが、低容量線形予測器への依存によって制限される。
本研究では、PVGと高次元環境下での非線形分類のための概念符号化を組み合わせた統合フレームワークであるNeural Concept Verifier (NCV)を紹介する。
NCVは、最近の最小限の教師付き概念発見モデルを利用して、生入力から構造化概念エンコーディングを抽出する。
証明者はこれらの符号化のサブセットを選択し、検証者は非線形予測器として実装され、意思決定にのみ使用される。
評価の結果,NCVはCBMおよびピクセルベースPVG分類器よりも高次元,論理的に複雑なデータセットをベースラインとして優れており,ショートカット動作の軽減にも有効であることがわかった。
全体として、私たちはNCVをパフォーマンス、検証可能なAIに向けた有望なステップとして示しています。
関連論文リスト
- Cross-Layer Discrete Concept Discovery for Interpreting Language Models [13.842670153893977]
クロス層VQ-VAEは、ベクトル量子化を使用して層間の表現をマッピングするフレームワークである。
本手法は,量子化中のトップk温度に基づくサンプリングとEMAコードブック更新を一意に組み合わせる。
論文 参考訳(メタデータ) (2025-06-24T22:43:36Z) - Enhancing the conformal predictability of context-aware recommendation systems by using Deep Autoencoders [4.3012765978447565]
本稿では,ニューラルネットワークとオートエンコーダを組み合わせることで,項目のユーザ評価を予測するフレームワークを提案する。
実世界の様々なデータセットの実験を行い、その結果を最先端のアプローチと比較する。
論文 参考訳(メタデータ) (2024-11-30T18:24:42Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Neural Concept Binder [22.074896812195437]
本稿では、離散概念表現と連続概念表現の両方を導出するフレームワークであるNeural Concept Binder (NCB)を紹介する。
NCBの概念表現の構造的性質は、直感的な検査と外部知識の直接的な統合を可能にする。
新たに導入したCLEVR-Sudokuデータセットを用いて,NCBの有効性を評価する。
論文 参考訳(メタデータ) (2024-06-14T11:52:09Z) - Local Concept Embeddings for Analysis of Concept Distributions in Vision DNN Feature Spaces [1.0923877073891446]
学習した潜伏表現に対する洞察は、コンピュータビジョンタスクのディープニューラルネットワーク(DNN)を検証する上で不可欠である。
本稿では,学習した概念分布の探索を可能にする新しいローカル概念分析フレームワークを提案する。
文脈感度にもかかわらず,提案手法のセグメンテーション性能はグローバルベースラインと競合する。
論文 参考訳(メタデータ) (2023-11-24T12:22:00Z) - Nonparametric Classification on Low Dimensional Manifolds using Overparameterized Convolutional Residual Networks [78.11734286268455]
非パラメトリック分類の観点から重量減衰を訓練したConvResNeXtsの性能について検討した。
我々の分析は、ConvResNeXtsにおいて無限に多くのビルディングブロックを許容し、重み減衰がこれらのブロックに空間性を暗黙的に強制することを示す。
論文 参考訳(メタデータ) (2023-07-04T11:08:03Z) - Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Navigating Neural Space: Revisiting Concept Activation Vectors to Overcome Directional Divergence [13.618809162030486]
概念活性化ベクトル (Concept Activation Vectors, CAV) は、潜在空間における人間の理解可能な概念をモデル化するための一般的なツールである。
本稿では、そのような分離性指向の解が、概念の方向性を正確にモデル化する実際の目標から逸脱する可能性があることを示す。
パターンベースのCAVを導入し、概念信号のみに着目し、より正確な概念指示を提供する。
論文 参考訳(メタデータ) (2022-02-07T19:40:20Z) - Optimising for Interpretability: Convolutional Dynamic Alignment
Networks [108.83345790813445]
我々は、畳み込み動的アライメントネットワーク(CoDA Nets)と呼ばれる新しいニューラルネットワークモデルを紹介する。
彼らの中核となるビルディングブロックは動的アライメントユニット(DAU)であり、タスク関連パターンに合わせて動的に計算された重みベクトルで入力を変換するように最適化されている。
CoDAネットは一連の入力依存線形変換を通じて分類予測をモデル化し、出力を個々の入力コントリビューションに線形分解することができる。
論文 参考訳(メタデータ) (2021-09-27T12:39:46Z) - Convolutional Dynamic Alignment Networks for Interpretable
Classifications [108.83345790813445]
我々は、畳み込み動的アライメントネットワーク(CoDA-Nets)と呼ばれる新しいニューラルネットワークモデルを紹介する。
コアとなるビルディングブロックは動的アライメントユニット(DAU)で、入力をタスク関連パターンと動的に整合する重みベクトルで線形に変換する。
CoDA-Netsは一連の入力依存線形変換を通じて分類予測をモデル化し、出力を個々の入力コントリビューションに線形分解することができる。
論文 参考訳(メタデータ) (2021-03-31T18:03:53Z) - Invertible Concept-based Explanations for CNN Models with Non-negative
Concept Activation Vectors [24.581839689833572]
コンピュータビジョンのための畳み込みニューラルネットワーク(CNN)モデルは強力だが、最も基本的な形式では説明不可能である。
近似線形モデルの特徴的重要性による最近の説明に関する研究は、入力レベル特徴から概念活性化ベクトル(CAV)の形で中間層特徴写像から特徴へと移行した。
本稿では,Ghorbani etal.のACEアルゴリズムを再考し,その欠点を克服するために,別の非可逆的概念ベース説明(ICE)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-27T17:57:26Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。