論文の概要: Debate Dynamics for Human-comprehensible Fact-checking on Knowledge
Graphs
- arxiv url: http://arxiv.org/abs/2001.03436v1
- Date: Thu, 9 Jan 2020 15:19:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:13:28.284114
- Title: Debate Dynamics for Human-comprehensible Fact-checking on Knowledge
Graphs
- Title(参考訳): ナレッジグラフにおける人間理解可能な事実チェックのためのディベートダイナミクス
- Authors: Marcel Hildebrandt, Jorge Andres Quintero Serna, Yunpu Ma, Martin
Ringsquandl, Mitchell Joblin, Volker Tresp
- Abstract要約: 本稿では,議論力学に基づく知識グラフのファクトチェック手法を提案する。
基礎となる考え方は、2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを設定することである。
提案手法では,知識グラフの対話的推論が可能であり,ユーザが追加の議論を提起したり,共通感覚推論や外部情報を考慮した議論を評価できる。
- 参考スコア(独自算出の注目度): 27.225048123690243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method for fact-checking on knowledge graphs based on
debate dynamics. The underlying idea is to frame the task of triple
classification as a debate game between two reinforcement learning agents which
extract arguments -- paths in the knowledge graph -- with the goal to justify
the fact being true (thesis) or the fact being false (antithesis),
respectively. Based on these arguments, a binary classifier, referred to as the
judge, decides whether the fact is true or false. The two agents can be
considered as sparse feature extractors that present interpretable evidence for
either the thesis or the antithesis. In contrast to black-box methods, the
arguments enable the user to gain an understanding for the decision of the
judge. Moreover, our method allows for interactive reasoning on knowledge
graphs where the users can raise additional arguments or evaluate the debate
taking common sense reasoning and external information into account. Such
interactive systems can increase the acceptance of various AI applications
based on knowledge graphs and can further lead to higher efficiency,
robustness, and fairness.
- Abstract(参考訳): 本稿では,議論力学に基づく知識グラフのファクトチェック手法を提案する。
基本的な考え方は、知識グラフの経路である議論を抽出する2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを、それぞれ真である事実(仮説)または偽である事実(仮説)を正当化することを目的としている。
これらの議論に基づいて、二項分類器は裁判官と呼ばれ、事実が真か偽かを決定する。
この2つのエージェントは、論文またはアンチテーゼの解釈可能な証拠を示すスパース特徴抽出体と見なすことができる。
ブラックボックス法とは対照的に、この議論は、ユーザが裁判官の決定に対する理解を得ることを可能にする。
さらに,知識グラフ上での対話的推論が可能であり,ユーザが追加の議論を提起したり,常識的推論や外部情報を考慮した議論を評価できる。
このようなインタラクティブなシステムは、知識グラフに基づくさまざまなAIアプリケーションの受け入れを高め、より高い効率、堅牢性、公平性をもたらす可能性がある。
関連論文リスト
- A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - DebateKG: Automatic Policy Debate Case Creation with Semantic Knowledge
Graphs [0.0]
本稿では,Argumentative Semantic Knowledge Graphs上で,制約付き最短経路トラバーサルを用いて効果的な議論ケースを構築することができることを示す。
53180の新しい例を導入することで、DebateSumを大幅に改善しました。
政策論争の事例を生成する文脈において、どの知識グラフが優れているかを評価するためのユニークな方法を作成する。
論文 参考訳(メタデータ) (2023-07-09T04:19:19Z) - How to disagree well: Investigating the dispute tactics used on
Wikipedia [17.354674873244335]
本稿では,毒性の検出と議論構造の分析という視点を統一する論争戦術の枠組みを提案する。
この枠組みは、アドホミン攻撃から中心的議論への反論まで、反感型戦術の優先的な順序を含む。
これらのアノテーションは,エスカレーション予測タスクの性能向上に有用な追加信号を提供するために利用できることを示す。
論文 参考訳(メタデータ) (2022-12-16T09:01:19Z) - Explaining Image Classification with Visual Debates [26.76139301708958]
本稿では,特定の予測を行うための連続画像分類器の推論の理解と説明のための新しい議論フレームワークを提案する。
我々の枠組みは、対戦相手が見逃した推論の道筋を拾い上げることで、競技者が様々な議論を行うよう促す。
我々は、幾何学的SHAPEおよびMNISTデータセット上で、視覚的議論を実証し、評価する(実用的な実現)。
論文 参考訳(メタデータ) (2022-10-17T12:35:52Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Annotating Implicit Reasoning in Arguments with Causal Links [34.77514899468729]
議論知識の形で暗黙の知識を特定することに注力する。
コンシークエンススキームのArgumentに着想を得て,そのような議論の知識を表現するための半構造化テンプレートを提案する。
クラウドソーシングによる高品質な暗黙的推論の収集とフィルタリング方法を示す。
論文 参考訳(メタデータ) (2021-10-26T13:28:53Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - KompaRe: A Knowledge Graph Comparative Reasoning System [85.72488258453926]
本稿では,複数の手がかりに対する共通点と矛盾点の推測を目的とした知識グラフの比較推論を提案する。
我々は,大規模な知識グラフに対して比較推論機能を提供する,最初のプロトタイプシステムであるKompaReを開発した。
論文 参考訳(メタデータ) (2020-11-06T04:57:37Z) - Reasoning on Knowledge Graphs with Debate Dynamics [27.225048123690243]
本稿では,議論力学に基づく知識グラフの自動推論手法を提案する。
主な考え方は、2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを組むことである。
本稿では3つの分類とリンク予測タスクについてベンチマークを行う。
論文 参考訳(メタデータ) (2020-01-02T14:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。