論文の概要: Structural Causal Models Reveal Confounder Bias in Linear Program
Modelling
- arxiv url: http://arxiv.org/abs/2105.12697v6
- Date: Tue, 7 Nov 2023 12:38:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 23:16:09.175942
- Title: Structural Causal Models Reveal Confounder Bias in Linear Program
Modelling
- Title(参考訳): 構造因果モデル - 線形プログラムモデリングにおける共同創設者のバイアス
- Authors: Matej Ze\v{c}evi\'c and Devendra Singh Dhami and Kristian Kersting
- Abstract要約: この現象が自然界においてより一般的なものなのか、つまり古典的な分類タスク以外の敵型攻撃なのかを考察する。
具体的には,線形プログラム(LP)の基本クラスを考える。
構造因果モデル(SCM)のその後のLP最適化に対する直接的な影響を示す。
- 参考スコア(独自算出の注目度): 26.173103098250678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent years have been marked by extended research on adversarial
attacks, especially on deep neural networks. With this work we intend on posing
and investigating the question of whether the phenomenon might be more general
in nature, that is, adversarial-style attacks outside classical classification
tasks. Specifically, we investigate optimization problems as they constitute a
fundamental part of modern AI research. To this end, we consider the base class
of optimizers namely Linear Programs (LPs). On our initial attempt of a na\"ive
mapping between the formalism of adversarial examples and LPs, we quickly
identify the key ingredients missing for making sense of a reasonable notion of
adversarial examples for LPs. Intriguingly, the formalism of Pearl's notion to
causality allows for the right description of adversarial like examples for
LPs. Characteristically, we show the direct influence of the Structural Causal
Model (SCM) onto the subsequent LP optimization, which ultimately exposes a
notion of confounding in LPs (inherited by said SCM) that allows for
adversarial-style attacks. We provide both the general proof formally alongside
existential proofs of such intriguing LP-parameterizations based on SCM for
three combinatorial problems, namely Linear Assignment, Shortest Path and a
real world problem of energy systems.
- Abstract(参考訳): 近年、特にディープニューラルネットワークにおいて、敵対的攻撃に関する広範な研究が注目されている。
この研究で我々は,この現象が自然界において,すなわち,古典的分類タスク以外での敵対的攻撃としてより一般的であるかどうか,という疑問を提起し,検討する。
具体的には,現代AI研究の基本部分を構成する最適化問題について検討する。
この目的のために,線形プログラム (LP) というオプティマイザの基本クラスを検討する。
対向例の形式主義とLPの「対向写像」の最初の試みにおいて、LPの対向例の合理的な概念を理解するために欠落する重要な要素を素早く同定した。
興味深いことに、パールの因果性の概念の形式主義は、LPの例のような敵の正しい記述を可能にする。
特徴として、構造因果モデル(SCM)がその後のLP最適化に直接的な影響を与えることを示し、最終的に(SCMが継承した)LPにおける相反する概念が敵対的な攻撃を可能にする。
本稿では,3つの組合せ問題,すなわち線形アサインメント,ショート・パス,およびエネルギーシステムの実世界の問題に対する,SCMに基づくLPパラメータ化の有意な証明とともに,公式な証明を提供する。
関連論文リスト
- Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - Towards an Understanding of Stepwise Inference in Transformers: A
Synthetic Graph Navigation Model [19.826983068662106]
本稿では,ステップワイズ推論が一般的に有用である問題の多段階の性質を具現化した,自動回帰変換器モデルを提案する。
単純さにもかかわらず、私たちは経験的に、大規模に観察されたいくつかの現象を再現し分析することができることに気付きました。
論文 参考訳(メタデータ) (2024-02-12T16:25:47Z) - Deep Backtracking Counterfactuals for Causally Compliant Explanations [57.94160431716524]
本稿では,DeepBC(Deep Backtracking counterfactuals)と呼ばれる手法を導入する。
特別な場合として、我々の定式化は、対実的説明の分野における手法に還元される。
論文 参考訳(メタデータ) (2023-10-11T17:11:10Z) - Mitigating Prior Errors in Causal Structure Learning: Towards LLM driven
Prior Knowledge [17.634793921251777]
我々は,Large Language Models (LLM) の誤った因果文に対処することを目指している。
先駆的な試みとして,人間の介入を必要とせず,事前エラーに耐性のあるBN学習戦略を提案する。
具体的には、正しい事前知識の大多数を維持しながら、オーダー逆誤差に抵抗する実質的な能力を強調します。
論文 参考訳(メタデータ) (2023-06-12T11:24:48Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - Rediscovering Argumentation Principles Utilizing Collective Attacks [26.186171927678874]
我々は、集合攻撃(SETAFs)による論証フレームワークへの原則に基づくアプローチを拡張した。
分析の結果、与えられたSETAF(例えば、方向性やSCC再帰性)の分解に基づく原理の検証は、通常のAFと比較して、さらなる課題をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-06T11:41:23Z) - An Intermediate-level Attack Framework on The Basis of Linear Regression [89.85593878754571]
本論文はECCVにおいて,いくつかのベースライン対向例の転送性を改善するため,中間レベルアタック(中間レベルアタック)を提案し,本研究を実質的に拡張するものである。
我々は,中間レベルの相違点(対角的特徴と良性的特徴)から,対角的例の分類的損失への直接的な線形写像の確立を提唱する。
1) 様々な線形回帰モデルがマッピングを確立するために考慮可能であること,2) 最終的に得られた中間レベル差の大きさが逆転率と線形に相関していること,3) ベースラインアタックを複数回実行することで,さらなる性能向上が達成できること,などが示される。
論文 参考訳(メタデータ) (2022-03-21T03:54:53Z) - Deep Hierarchy in Bandits [51.22833900944146]
行動の報酬は、しばしば相関する。
統計的効率を最大化するためには,これらの相関を学習に活用することが重要である。
平均作用報酬の相関が階層的ベイズモデルで表されるこの問題のバンディット変法を定式化する。
論文 参考訳(メタデータ) (2022-02-03T08:15:53Z) - On the Connections between Counterfactual Explanations and Adversarial
Examples [14.494463243702908]
本研究は, 対実的説明と敵対的事例との間の関係を定式化するための最初の試みである。
本分析は,いくつかの反事実的説明法と逆例生成法が等価であることを示す。
人工および実世界のデータセットを用いた広範囲な実験により理論的知見を実証的に検証した。
論文 参考訳(メタデータ) (2021-06-18T08:22:24Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Case-Based Abductive Natural Language Inference [4.726777092009554]
事例ベース帰納的自然言語推論(CB-ANLI)
事例ベース帰納的自然言語推論(CB-ANLI)
論文 参考訳(メタデータ) (2020-09-30T09:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。