論文の概要: Annotating Implicit Reasoning in Arguments with Causal Links
- arxiv url: http://arxiv.org/abs/2110.13692v1
- Date: Tue, 26 Oct 2021 13:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 20:21:43.554336
- Title: Annotating Implicit Reasoning in Arguments with Causal Links
- Title(参考訳): 因果関係を有する議論における暗黙の推論
- Authors: Keshav Singh, Naoya Inoue, Farjana Sultana Mim, Shoichi Naitoh and
Kentaro Inui
- Abstract要約: 議論知識の形で暗黙の知識を特定することに注力する。
コンシークエンススキームのArgumentに着想を得て,そのような議論の知識を表現するための半構造化テンプレートを提案する。
クラウドソーシングによる高品質な暗黙的推論の収集とフィルタリング方法を示す。
- 参考スコア(独自算出の注目度): 34.77514899468729
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of the existing work that focus on the identification of implicit
knowledge in arguments generally represent implicit knowledge in the form of
commonsense or factual knowledge. However, such knowledge is not sufficient to
understand the implicit reasoning link between individual argumentative
components (i.e., claim and premise). In this work, we focus on identifying the
implicit knowledge in the form of argumentation knowledge which can help in
understanding the reasoning link in arguments. Being inspired by the Argument
from Consequences scheme, we propose a semi-structured template to represent
such argumentation knowledge that explicates the implicit reasoning in
arguments via causality. We create a novel two-phase annotation process with
simplified guidelines and show how to collect and filter high-quality implicit
reasonings via crowdsourcing. We find substantial inter-annotator agreement for
quality evaluation between experts, but find evidence that casts a few
questions on the feasibility of collecting high-quality semi-structured
implicit reasoning through our crowdsourcing process. We release our
materials(i.e., crowdsourcing guidelines and collected implicit reasonings) to
facilitate further research towards the structured representation of
argumentation knowledge.
- Abstract(参考訳): 議論における暗黙の知識の同定に焦点を当てた既存の研究の多くは、一般的に、常識や事実の知識という形で暗黙の知識を表す。
しかし、そのような知識は個々の議論的要素(すなわちクレームと前提)の間の暗黙の推論リンクを理解するのに十分ではない。
本研究では,議論中の推論リンクを理解するのに役立つ議論知識の形で,暗黙の知識を識別することに焦点を当てる。
本稿では, 因果関係による議論における暗黙的推論を明示する議論知識を表現するための, 半構造化テンプレートを提案する。
簡易なガイドラインを用いた新しい2段階アノテーションプロセスを作成し,クラウドソーシングによる高品質な暗黙的推論の収集とフィルタリング方法を示す。
専門家間の品質評価について,実質的なアノテータ間の合意が得られたが,クラウドソーシングプロセスを通じて,高品質な半構造的暗黙的推論を収集できる可能性について,いくつかの疑問を投げかける証拠が見つかった。
我々は,議論知識の構造化表現に向けたさらなる研究を促進するために,資料(クラウドソーシングガイドラインと暗黙的推論)をリリースする。
関連論文リスト
- CHECKWHY: Causal Fact Verification via Argument Structure [19.347690600431463]
CheckWhyは、新しい因果事実検証タスクに適したデータセットである。
CheckWhyは19K以上の「なぜ」クレーム・エビデンス・アグメント構造三重奏団で構成されており、サポート、反響、十分な情報ラベルがない。
論文 参考訳(メタデータ) (2024-08-20T15:03:35Z) - The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning [70.16523526957162]
常識の因果関係を理解することは、人々が現実世界の原理をよりよく理解するのに役立ちます。
その重要性にもかかわらず、このトピックの体系的な探索は特に欠落している。
本研究の目的は、体系的な概要の提供、最近の進歩に関する学者の更新、初心者のための実践的なガイドを提供することである。
論文 参考訳(メタデータ) (2024-06-27T16:30:50Z) - Counterfactual and Semifactual Explanations in Abstract Argumentation: Formal Foundations, Complexity and Computation [19.799266797193344]
議論ベースのシステムは、意思決定プロセスをサポートしながら説明責任を欠くことが多い。
対実的・半実的な説明は解釈可能性のテクニックである。
本稿では,制約の弱いArgumentation Frameworkにおいて,逆ファクトおよび半ファクトのクエリを符号化可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T07:27:27Z) - Generation of Explanations for Logic Reasoning [0.0]
この研究は、GPT-3.5-turboを用いて、フォーティオリの議論の分析を自動化することに集中している。
この論文は人工知能と論理的推論の分野に多大な貢献をしている。
論文 参考訳(メタデータ) (2023-11-22T15:22:04Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Crystal: Introspective Reasoners Reinforced with Self-Feedback [118.53428015478957]
本稿では,イントロスペクティブ・コモンセンス推論器であるCrystalを開発するための新しい手法を提案する。
コモンセンス問題に対処するため、まず与えられた質問に関連する知識ステートメントのイントロスペクションを行い、その後、それまでのイントロスペクションされた知識に根ざした情報予測を行う。
実験により、クリスタルは標準的な微調整法と連鎖蒸留法の両方で著しく優れており、コモンセンス推論プロセスの透明性を高めていることが示された。
論文 参考訳(メタデータ) (2023-10-07T21:23:58Z) - Contrastive Explanations for Argumentation-Based Conclusions [5.1398743023989555]
フォーマルな議論の対照的な説明について論じる。
対照的な説明が意味のある条件と、議論によって暗黙のホイルが明確になることを示す。
論文 参考訳(メタデータ) (2021-07-07T15:00:47Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Fact-driven Logical Reasoning for Machine Reading Comprehension [82.58857437343974]
私たちは、常識と一時的な知識のヒントの両方を階層的にカバーする動機があります。
具体的には,文の背骨成分を抽出し,知識単位の一般的な定式化を提案する。
次に、事実単位の上にスーパーグラフを構築し、文レベル(事実群間の関係)と実体レベルの相互作用の利点を享受する。
論文 参考訳(メタデータ) (2021-05-21T13:11:13Z) - Necessary and Sufficient Explanations in Abstract Argumentation [3.9849889653167208]
フォーマルな議論に必要な説明と十分な説明について論じる。
必然性と十分性について研究する: 議論の(非受容性)に何(集合)の議論が必要か、あるいは十分か?
論文 参考訳(メタデータ) (2020-11-04T17:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。