論文の概要: Reasoning on Knowledge Graphs with Debate Dynamics
- arxiv url: http://arxiv.org/abs/2001.00461v1
- Date: Thu, 2 Jan 2020 14:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 03:44:07.908451
- Title: Reasoning on Knowledge Graphs with Debate Dynamics
- Title(参考訳): 議論ダイナミクスを用いた知識グラフの推論
- Authors: Marcel Hildebrandt, Jorge Andres Quintero Serna, Yunpu Ma, Martin
Ringsquandl, Mitchell Joblin, Volker Tresp
- Abstract要約: 本稿では,議論力学に基づく知識グラフの自動推論手法を提案する。
主な考え方は、2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを組むことである。
本稿では3つの分類とリンク予測タスクについてベンチマークを行う。
- 参考スコア(独自算出の注目度): 27.225048123690243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method for automatic reasoning on knowledge graphs based
on debate dynamics. The main idea is to frame the task of triple classification
as a debate game between two reinforcement learning agents which extract
arguments -- paths in the knowledge graph -- with the goal to promote the fact
being true (thesis) or the fact being false (antithesis), respectively. Based
on these arguments, a binary classifier, called the judge, decides whether the
fact is true or false. The two agents can be considered as sparse, adversarial
feature generators that present interpretable evidence for either the thesis or
the antithesis. In contrast to other black-box methods, the arguments allow
users to get an understanding of the decision of the judge. Since the focus of
this work is to create an explainable method that maintains a competitive
predictive accuracy, we benchmark our method on the triple classification and
link prediction task. Thereby, we find that our method outperforms several
baselines on the benchmark datasets FB15k-237, WN18RR, and Hetionet. We also
conduct a survey and find that the extracted arguments are informative for
users.
- Abstract(参考訳): 本稿では,議論のダイナミクスに基づく知識グラフの自動推論手法を提案する。
主な目的は、知識グラフの経路である議論を抽出する2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを、それぞれ真である事実(仮説)または偽である事実(仮説)を促進することにある。
これらの議論に基づいて、裁判官と呼ばれる二項分類器は、事実が真か偽かを決定する。
この2つのエージェントは、論文またはアンチテーゼの解釈可能な証拠を示す、スパースで敵対的な特徴生成器と見なすことができる。
他のブラックボックス方式とは対照的に、この議論によってユーザーは裁判官の決定を理解できる。
本研究の目的は,競合予測精度を保ちながら説明可能な手法を作成することにあるので,本手法を三重分類およびリンク予測タスクにベンチマークする。
その結果,本手法はベンチマークデータセットfb15k-237,wn18rr,hetionetのベースライン数を上回っていることがわかった。
また,調査を行い,抽出した引数がユーザにとって有益であることを確認する。
関連論文リスト
- Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - How to disagree well: Investigating the dispute tactics used on
Wikipedia [17.354674873244335]
本稿では,毒性の検出と議論構造の分析という視点を統一する論争戦術の枠組みを提案する。
この枠組みは、アドホミン攻撃から中心的議論への反論まで、反感型戦術の優先的な順序を含む。
これらのアノテーションは,エスカレーション予測タスクの性能向上に有用な追加信号を提供するために利用できることを示す。
論文 参考訳(メタデータ) (2022-12-16T09:01:19Z) - Robust and Explainable Identification of Logical Fallacies in Natural
Language Arguments [5.850977561881791]
論理的誤りに関する先行理論を総合的な3段階評価フレームワークに定式化する。
我々は,プロトタイプ推論,インスタンスベースの推論,知識注入に基づく,堅牢で説明可能な3つの手法を取り入れている。
我々はこれらの手法をデータセット上で広範囲に評価し、その堅牢性と説明可能性に焦点を当てた。
論文 参考訳(メタデータ) (2022-12-12T20:27:17Z) - Explaining Image Classification with Visual Debates [26.76139301708958]
本稿では,特定の予測を行うための連続画像分類器の推論の理解と説明のための新しい議論フレームワークを提案する。
我々の枠組みは、対戦相手が見逃した推論の道筋を拾い上げることで、競技者が様々な議論を行うよう促す。
我々は、幾何学的SHAPEおよびMNISTデータセット上で、視覚的議論を実証し、評価する(実用的な実現)。
論文 参考訳(メタデータ) (2022-10-17T12:35:52Z) - Ask to Know More: Generating Counterfactual Explanations for Fake Claims [11.135087647482145]
本稿では,あるニュースがなぜ偽物と認識されたのかを理解するために,事実チェック予測を反実的説明を用いて解明することを提案する。
この研究では、偽ニュースの反実的な説明を生成するには、良い質問、矛盾の発見、適切な推論の3つのステップがある。
以上の結果から,提案手法は最先端の手法と比較して,最も有用な説明が得られたことが示唆された。
論文 参考訳(メタデータ) (2022-06-10T04:42:00Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Why do you think that? Exploring Faithful Sentence-Level Rationales
Without Supervision [60.62434362997016]
文レベルで忠実な論理を出力するモデルを作成するために,異なる訓練枠組みを提案する。
本モデルでは,各理性に基づいて各課題を個別に解決し,その課題を最もよく解決した者に高いスコアを割り当てることを学ぶ。
論文 参考訳(メタデータ) (2020-10-07T12:54:28Z) - L2R2: Leveraging Ranking for Abductive Reasoning [65.40375542988416]
学習システムの帰納的推論能力を評価するために,帰納的自然言語推論タスク(alpha$NLI)を提案する。
新たな$L2R2$アプローチは、Learning-to-rankフレームワークの下で提案されている。
ARTデータセットの実験は、公開リーダボードの最先端に到達します。
論文 参考訳(メタデータ) (2020-05-22T15:01:23Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z) - Debate Dynamics for Human-comprehensible Fact-checking on Knowledge
Graphs [27.225048123690243]
本稿では,議論力学に基づく知識グラフのファクトチェック手法を提案する。
基礎となる考え方は、2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを設定することである。
提案手法では,知識グラフの対話的推論が可能であり,ユーザが追加の議論を提起したり,共通感覚推論や外部情報を考慮した議論を評価できる。
論文 参考訳(メタデータ) (2020-01-09T15:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。