論文の概要: Heterogeneous Graph Neural Networks for Assumption-Based Argumentation
- arxiv url: http://arxiv.org/abs/2511.08982v2
- Date: Sat, 15 Nov 2025 02:44:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.302005
- Title: Heterogeneous Graph Neural Networks for Assumption-Based Argumentation
- Title(参考訳): 推定に基づく議論のための不均一グラフニューラルネットワーク
- Authors: Preesha Gehlot, Anna Rapberger, Fabrizio Russo, Francesca Toni,
- Abstract要約: Assumption-Based Argumentation (ABA)における信頼度を近似する最初のグラフニューラルネットワーク(GNN)アプローチを提案する。
GNNを活用するために,仮定やクレーム,ルールをノードとして符号化する依存性グラフ表現を通じて,ABAフレームワークをモデル化する。
我々の研究は、構造化議論におけるスケーラブルな近似推論のための新しい道を開く。
- 参考スコア(独自算出の注目度): 19.719603080618782
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assumption-Based Argumentation (ABA) is a powerful structured argumentation formalism, but exact computation of extensions under stable semantics is intractable for large frameworks. We present the first Graph Neural Network (GNN) approach to approximate credulous acceptance in ABA. To leverage GNNs, we model ABA frameworks via a dependency graph representation encoding assumptions, claims and rules as nodes, with heterogeneous edge labels distinguishing support, derive and attack relations. We propose two GNN architectures - ABAGCN and ABAGAT - that stack residual heterogeneous convolution or attention layers, respectively, to learn node embeddings. Our models are trained on the ICCMA 2023 benchmark, augmented with synthetic ABAFs, with hyperparameters optimised via Bayesian search. Empirically, both ABAGCN and ABAGAT outperform a state-of-the-art GNN baseline that we adapt from the abstract argumentation literature, achieving a node-level F1 score of up to 0.71 on the ICCMA instances. Finally, we develop a sound polynomial time extension-reconstruction algorithm driven by our predictor: it reconstructs stable extensions with F1 above 0.85 on small ABAFs and maintains an F1 of about 0.58 on large frameworks. Our work opens new avenues for scalable approximate reasoning in structured argumentation.
- Abstract(参考訳): Assumption-Based Argumentation (ABA) は強力な構造化された議論形式である。
ABAにおける信頼度を近似する最初のグラフニューラルネットワーク(GNN)手法を提案する。
GNNを活用するために、我々は、仮定、クレーム、ルールをノードとして符号化する依存性グラフ表現を用いて、ABAフレームワークをモデル化する。
ABAGCN と ABAGAT という2つの GNN アーキテクチャを提案する。
我々のモデルはICCMA 2023ベンチマークでトレーニングされ、合成ABAFで強化され、ハイパパラメータはベイズ探索によって最適化される。
ABAGCNとABAGATはどちらも、抽象的な議論文献から適応する最先端のGNNベースラインを上回り、ICCMAインスタンスで最大0.71のノードレベルF1スコアを達成する。
最後に、予測器によって駆動される音多項式時間拡張再構成アルゴリズムを開発し、小さなABAF上では0.85以上のF1で安定な拡張を再構成し、大きなフレームワークでは約0.58のF1を維持している。
我々の研究は、構造化議論におけるスケーラブルな近似推論のための新しい道を開く。
関連論文リスト
- A Neuro-Symbolic Approach for Probabilistic Reasoning on Graph Data [12.45190689569629]
グラフネットワーク(GNN)は、しばしば記号的なドメイン知識を取り入れ、一般的な推論を行う能力に欠ける。
本稿では,GNNの学習強度とRBNの柔軟な推論能力を組み合わせることで,GNNをRBNにシームレスに統合するニューロシンボリックフレームワークを提案する。
この研究は、グラフデータに対する強力でコヒーレントなニューラルシンボリックなアプローチを導入し、新しいアプリケーションを可能にする方法で学習と推論を導入し、多様なタスクにおけるパフォーマンスを改善します。
論文 参考訳(メタデータ) (2025-07-29T14:43:25Z) - ReDiSC: A Reparameterized Masked Diffusion Model for Scalable Node Classification with Structured Predictions [64.17845687013434]
本稿では,構造化ノード分類のための構造拡散モデルであるReDiSCを提案する。
本稿では,ReDiSCが最先端のGNN,ラベル伝搬,拡散ベースラインと比較して,優れた,あるいは高い競争力を発揮することを示す。
特にReDiSCは、従来の構造化拡散法が計算制約によって失敗する大規模データセットに効果的にスケールする。
論文 参考訳(メタデータ) (2025-07-19T04:46:53Z) - Graph as a feature: improving node classification with non-neural graph-aware logistic regression [2.952177779219163]
Graph-aware Logistic Regression (GLR) はノード分類タスク用に設計された非神経モデルである。
GNNにアクセスできる情報のごく一部しか使わない従来のグラフアルゴリズムとは異なり、提案モデルではノードの特徴とエンティティ間の関係を同時に活用する。
論文 参考訳(メタデータ) (2024-11-19T08:32:14Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Neural Structured Prediction for Inductive Node Classification [29.908759584092167]
本稿では,ラベル付き学習グラフのモデルを学習し,未ラベルの試験グラフ上でノードラベルを推論するために一般化することを目的とした,帰納的環境におけるノード分類について検討する。
本稿では,両者の利点を組み合わせたSPN(Structured Proxy Network)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-15T15:50:27Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Meta-Aggregator: Learning to Aggregate for 1-bit Graph Neural Networks [127.32203532517953]
我々は,GNNパラメータとグラフ特徴をバイナライズするバニラ1ビットフレームワークを開発した。
軽量なアーキテクチャにもかかわらず、我々はこのバニラフレームワークがグラフトポロジを区別するのに十分な差別力に悩まされていることを観察した。
この発見は、バニラ二項化GNNの表現力を向上させるためにメタアグリゲータを考案する動機となる。
論文 参考訳(メタデータ) (2021-09-27T08:50:37Z) - SLGCN: Structure Learning Graph Convolutional Networks for Graphs under
Heterophily [5.619890178124606]
本稿では2つの側面から問題を緩和する構造学習グラフ畳み込みネットワーク(SLGCN)を提案する。
具体的には、全ての類似ノードから特徴表現を効率的に集約するために、アンカーを用いた効率的なスペクトルクラスタリング(ESC-ANCH)を設計する。
幅広いベンチマークデータセットの実験結果は、提案されたSLGCNが、最先端のGNNよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-05-28T13:00:38Z) - Graph Neural Networks Inspired by Classical Iterative Algorithms [28.528150667063876]
我々は、2つの古典的反復アルゴリズムの更新ルールを模倣し、統合するために設計された新しいGNNレイヤーのファミリーを考える。
新しい注意機構は、基礎となるエンドツーエンドエネルギー関数に明示的に固定され、エッジの不確かさに関する安定性に寄与する。
論文 参考訳(メタデータ) (2021-03-10T14:08:12Z) - A PAC-Bayesian Approach to Generalization Bounds for Graph Neural
Networks [99.46182575751271]
グラフニューラルネットワーク(GNN)の2つの一次クラスに対する一般化境界を導出する。
その結果,重みの最大ノード次数とスペクトルノルムが両モデルの一般化境界を規定することが明らかとなった。
論文 参考訳(メタデータ) (2020-12-14T16:41:23Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。