論文の概要: Counterfactual Collaborative Reasoning
- arxiv url: http://arxiv.org/abs/2307.00165v1
- Date: Fri, 30 Jun 2023 23:01:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-09 13:50:33.185323
- Title: Counterfactual Collaborative Reasoning
- Title(参考訳): カウンターファクトコラボレーティブ推論
- Authors: Jianchao Ji, Zelong Li, Shuyuan Xu, Max Xiong, Juntao Tan, Yingqiang
Ge, Hao Wang, Yongfeng Zhang
- Abstract要約: 因果推論と論理推論は、人間の知性にとって重要な推論能力の2つの種類である。
本稿では,性能向上のために,対実論理推論を行う対実協調推論を提案する。
3つの実世界のデータセットの実験は、CCRが非拡張モデルや暗黙的に拡張モデルよりも優れたパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 41.89113539041682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal reasoning and logical reasoning are two important types of reasoning
abilities for human intelligence. However, their relationship has not been
extensively explored under machine intelligence context. In this paper, we
explore how the two reasoning abilities can be jointly modeled to enhance both
accuracy and explainability of machine learning models. More specifically, by
integrating two important types of reasoning ability -- counterfactual
reasoning and (neural) logical reasoning -- we propose Counterfactual
Collaborative Reasoning (CCR), which conducts counterfactual logic reasoning to
improve the performance. In particular, we use recommender system as an example
to show how CCR alleviate data scarcity, improve accuracy and enhance
transparency. Technically, we leverage counterfactual reasoning to generate
"difficult" counterfactual training examples for data augmentation, which --
together with the original training examples -- can enhance the model
performance. Since the augmented data is model irrelevant, they can be used to
enhance any model, enabling the wide applicability of the technique. Besides,
most of the existing data augmentation methods focus on "implicit data
augmentation" over users' implicit feedback, while our framework conducts
"explicit data augmentation" over users explicit feedback based on
counterfactual logic reasoning. Experiments on three real-world datasets show
that CCR achieves better performance than non-augmented models and implicitly
augmented models, and also improves model transparency by generating
counterfactual explanations.
- Abstract(参考訳): 因果推論と論理推論は、人間の知能に対する2つの重要な推論能力である。
しかしながら、それらの関係はマシンインテリジェンスの文脈下では広く研究されていない。
本稿では,機械学習モデルの精度と説明可能性を高めるために,この2つの推論能力を共同でモデル化する方法について検討する。
具体的には,2つの重要な推論能力 – 反実的推論と(神経)論理的推論 – を統合することで,パフォーマンス向上のために反実的論理的推論を行う対実的協調推論(CCR)を提案する。
特に,ccrがデータの不足を軽減し,正確性を高め,透明性を高めるための例としてレコメンダシステムを用いた。
技術的には、反ファクト推論を活用して、データ拡張のための"難しい"反ファクトトレーニング例を生成します。
拡張データは無関係なモデルであるため、任意のモデルを強化するために使用することができ、その技術の適用性を高めることができる。
さらに,既存のデータ拡張手法のほとんどは,ユーザの暗黙的なフィードバックよりも"単純なデータ拡張"に重点を置いている一方,我々のフレームワークは,反ファクト論理的推論に基づくユーザの明示的なフィードバックに対して"明示的なデータ拡張"を行っている。
3つの実世界のデータセットに関する実験は、ccrが非提供モデルや暗黙的に拡張されたモデルよりも優れたパフォーマンスを達成していることを示している。
関連論文リスト
- Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Directed Acyclic Graph Factorization Machines for CTR Prediction via
Knowledge Distillation [65.62538699160085]
本稿では,既存の複雑な相互作用モデルから,知識蒸留によるCTR予測のための高次特徴相互作用を学習するための非巡回グラフファクトリゼーションマシン(KD-DAGFM)を提案する。
KD-DAGFMは、オンラインとオフラインの両方の実験において、最先端のFLOPの21.5%未満で最高の性能を達成する。
論文 参考訳(メタデータ) (2022-11-21T03:09:42Z) - Stop ordering machine learning algorithms by their explainability! A
user-centered investigation of performance and explainability [0.0]
機械学習アルゴリズムのモデル性能と説明可能性のトレードオフについて検討する。
エンドユーザの認識では、トレードオフは徐々に減少しています。
第2の実験の結果、説明可能な人工知能の強化は説明可能性を高めるのに有効であるが、このタイプの説明はエンドユーザの知覚に不可欠な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2022-06-20T08:32:38Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Generalizable Information Theoretic Causal Representation [37.54158138447033]
本稿では,観測データから因果表現を学習するために,仮説因果グラフに基づいて相互情報量で学習手順を規則化することを提案する。
この最適化は、因果性に着想を得た学習がサンプルの複雑さを減らし、一般化能力を向上させるという理論的保証を導出する反ファクト的損失を伴う。
論文 参考訳(メタデータ) (2022-02-17T00:38:35Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Explanation of Reinforcement Learning Model in Dynamic Multi-Agent
System [3.754171077237216]
本稿では,DRL行動薬の口頭説明作成における新たな取り組みについて報告する。
一般的な状況に言語説明を生成する暗黙の論理を拡張するための学習モデルを提案する。
その結果,両モデルが生成した言語説明は,DRLシステムの解釈可能性に対するユーザの主観的満足度を向上させることがわかった。
論文 参考訳(メタデータ) (2020-08-04T13:21:19Z) - CausaLM: Causal Model Explanation Through Counterfactual Language Models [33.29636213961804]
CausaLMは、対実言語表現モデルを用いた因果モデル説明を作成するためのフレームワークである。
本稿では,BERT のような言語表現モデルが,ある意味ある概念に対する対実表現を効果的に学習できることを示す。
本手法の副産物は,テストされた概念の影響を受けない言語表現モデルである。
論文 参考訳(メタデータ) (2020-05-27T15:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。