論文の概要: Counterfactual Collaborative Reasoning
- arxiv url: http://arxiv.org/abs/2307.00165v1
- Date: Fri, 30 Jun 2023 23:01:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-09 13:50:33.185323
- Title: Counterfactual Collaborative Reasoning
- Title(参考訳): カウンターファクトコラボレーティブ推論
- Authors: Jianchao Ji, Zelong Li, Shuyuan Xu, Max Xiong, Juntao Tan, Yingqiang
Ge, Hao Wang, Yongfeng Zhang
- Abstract要約: 因果推論と論理推論は、人間の知性にとって重要な推論能力の2つの種類である。
本稿では,性能向上のために,対実論理推論を行う対実協調推論を提案する。
3つの実世界のデータセットの実験は、CCRが非拡張モデルや暗黙的に拡張モデルよりも優れたパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 41.89113539041682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal reasoning and logical reasoning are two important types of reasoning
abilities for human intelligence. However, their relationship has not been
extensively explored under machine intelligence context. In this paper, we
explore how the two reasoning abilities can be jointly modeled to enhance both
accuracy and explainability of machine learning models. More specifically, by
integrating two important types of reasoning ability -- counterfactual
reasoning and (neural) logical reasoning -- we propose Counterfactual
Collaborative Reasoning (CCR), which conducts counterfactual logic reasoning to
improve the performance. In particular, we use recommender system as an example
to show how CCR alleviate data scarcity, improve accuracy and enhance
transparency. Technically, we leverage counterfactual reasoning to generate
"difficult" counterfactual training examples for data augmentation, which --
together with the original training examples -- can enhance the model
performance. Since the augmented data is model irrelevant, they can be used to
enhance any model, enabling the wide applicability of the technique. Besides,
most of the existing data augmentation methods focus on "implicit data
augmentation" over users' implicit feedback, while our framework conducts
"explicit data augmentation" over users explicit feedback based on
counterfactual logic reasoning. Experiments on three real-world datasets show
that CCR achieves better performance than non-augmented models and implicitly
augmented models, and also improves model transparency by generating
counterfactual explanations.
- Abstract(参考訳): 因果推論と論理推論は、人間の知能に対する2つの重要な推論能力である。
しかしながら、それらの関係はマシンインテリジェンスの文脈下では広く研究されていない。
本稿では,機械学習モデルの精度と説明可能性を高めるために,この2つの推論能力を共同でモデル化する方法について検討する。
具体的には,2つの重要な推論能力 – 反実的推論と(神経)論理的推論 – を統合することで,パフォーマンス向上のために反実的論理的推論を行う対実的協調推論(CCR)を提案する。
特に,ccrがデータの不足を軽減し,正確性を高め,透明性を高めるための例としてレコメンダシステムを用いた。
技術的には、反ファクト推論を活用して、データ拡張のための"難しい"反ファクトトレーニング例を生成します。
拡張データは無関係なモデルであるため、任意のモデルを強化するために使用することができ、その技術の適用性を高めることができる。
さらに,既存のデータ拡張手法のほとんどは,ユーザの暗黙的なフィードバックよりも"単純なデータ拡張"に重点を置いている一方,我々のフレームワークは,反ファクト論理的推論に基づくユーザの明示的なフィードバックに対して"明示的なデータ拡張"を行っている。
3つの実世界のデータセットに関する実験は、ccrが非提供モデルや暗黙的に拡張されたモデルよりも優れたパフォーマンスを達成していることを示している。
関連論文リスト
- Improve Vision Language Model Chain-of-thought Reasoning [86.83335752119741]
視覚言語モデル(VLM)におけるチェーン・オブ・シント(CoT)推論は、解釈可能性と信頼性を向上させるために不可欠である。
我々は,より詳細な回答を必要とする推論タスクに対して,短時間でVLMを訓練することはよくないことを示す。
論文 参考訳(メタデータ) (2024-10-21T17:00:06Z) - Improving Language Model Reasoning with Self-motivated Learning [60.779625789039486]
textitSelfをモチベーションとする学習フレームワークは、モデル自体をモチベーションとして、既存のデータセットで合理性を自動的に生成する。
我々は,有理数の品質を評価するためにランク付き報酬モデルを訓練し,強化学習による推論の性能向上を図る。
論文 参考訳(メタデータ) (2024-04-10T14:05:44Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - Directed Acyclic Graph Factorization Machines for CTR Prediction via
Knowledge Distillation [65.62538699160085]
本稿では,既存の複雑な相互作用モデルから,知識蒸留によるCTR予測のための高次特徴相互作用を学習するための非巡回グラフファクトリゼーションマシン(KD-DAGFM)を提案する。
KD-DAGFMは、オンラインとオフラインの両方の実験において、最先端のFLOPの21.5%未満で最高の性能を達成する。
論文 参考訳(メタデータ) (2022-11-21T03:09:42Z) - Stop ordering machine learning algorithms by their explainability! A
user-centered investigation of performance and explainability [0.0]
機械学習アルゴリズムのモデル性能と説明可能性のトレードオフについて検討する。
エンドユーザの認識では、トレードオフは徐々に減少しています。
第2の実験の結果、説明可能な人工知能の強化は説明可能性を高めるのに有効であるが、このタイプの説明はエンドユーザの知覚に不可欠な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2022-06-20T08:32:38Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Explanation of Reinforcement Learning Model in Dynamic Multi-Agent
System [3.754171077237216]
本稿では,DRL行動薬の口頭説明作成における新たな取り組みについて報告する。
一般的な状況に言語説明を生成する暗黙の論理を拡張するための学習モデルを提案する。
その結果,両モデルが生成した言語説明は,DRLシステムの解釈可能性に対するユーザの主観的満足度を向上させることがわかった。
論文 参考訳(メタデータ) (2020-08-04T13:21:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。