論文の概要: Margin-distancing for safe model explanation
- arxiv url: http://arxiv.org/abs/2202.11266v1
- Date: Wed, 23 Feb 2022 01:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 04:09:41.091774
- Title: Margin-distancing for safe model explanation
- Title(参考訳): 安全なモデル説明のためのマージンディスタンシング
- Authors: Tom Yan, Chicheng Zhang
- Abstract要約: 本稿では,透明性とゲーム間の緊張関係を清潔に定式化することを提案する。
我々は,ゲームの起源をモデルの位置決定境界に近い点として認識する。
我々は、実世界のデータセットにおけるこのトレードオフに関する実証的な調査により、理論的結果を提供する。
- 参考スコア(独自算出の注目度): 22.301071549943064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing use of machine learning models in consequential settings has
highlighted an important and seemingly irreconcilable tension between
transparency and vulnerability to gaming. While this has sparked sizable debate
in legal literature, there has been comparatively less technical study of this
contention. In this work, we propose a clean-cut formulation of this tension
and a way to make the tradeoff between transparency and gaming. We identify the
source of gaming as being points close to the \emph{decision boundary} of the
model. And we initiate an investigation on how to provide example-based
explanations that are expansive and yet consistent with a version space that is
sufficiently uncertain with respect to the boundary points' labels. Finally, we
furnish our theoretical results with empirical investigations of this tradeoff
on real-world datasets.
- Abstract(参考訳): 連続的な設定における機械学習モデルの利用の増加は、透明性とゲームに対する脆弱性の間の重要かつ不可解な緊張を浮き彫りにした。
このことは法文学において大きな議論を巻き起こしているが、この論争の技術的な研究は比較的少ない。
本研究では,この緊張関係の清浄な定式化と,透明性とゲームとのトレードオフを実現する方法を提案する。
我々は、ゲーム源をモデルの \emph{decision boundary} に近い点と同定する。
そして、境界点のラベルに関して十分に不確実なバージョン空間と拡張可能でありながら整合性のあるサンプルベースの説明を提供する方法についての調査を開始する。
最後に、実世界のデータセットにおけるこのトレードオフに関する実証的な調査を行い、理論的結果を提示する。
関連論文リスト
- Understanding Probe Behaviors through Variational Bounds of Mutual
Information [53.520525292756005]
情報理論を利用した新しい数学的枠組みを構築することで線形探索のガイドラインを提供する。
まず、プローブ設計を緩和するために、相互情報の変動境界(MI)と探索を結合し、線形探索と微調整を同一視する。
中間表現は、分離性の向上とMIの減少のトレードオフのため、最大のMI推定値を持つことが示される。
論文 参考訳(メタデータ) (2023-12-15T18:38:18Z) - Alignment for Honesty [105.72465407518325]
最近の研究は、大きな言語モデル(LLM)を有用性と無害性と整合させることに大きく貢献している。
本稿は,LLMが知識の欠如に積極的に回答を拒むことを確実にする,エンフォネストリーにおけるアライメントの重要性を論じる。
これらの課題に対処するために、まずは正確な問題定義を確立し、儒教の分析に触発された「誠実さ」を定義します。
論文 参考訳(メタデータ) (2023-12-12T06:10:42Z) - Disentangled Representation Learning with Transmitted Information Bottleneck [57.22757813140418]
textbfDisTIB (textbfTransmitted textbfInformation textbfBottleneck for textbfDisd representation learning) は情報圧縮と保存のバランスを保った新しい目的である。
論文 参考訳(メタデータ) (2023-11-03T03:18:40Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Why So Gullible? Enhancing the Robustness of Retrieval-Augmented Models against Counterfactual Noise [14.38859858538404]
検索された文書セットでは、「関連」文書でさえ誤った情報や誤った情報を含むことがある。
我々の研究は、"関連"文書でさえ誤った情報や誤った情報を含む、より困難なシナリオを調査します。
本稿では,識別器を明示的に微調整したり,GPT-3.5に識別能力の付与を促すことによって,検索した文書間の知識衝突を処理する手法を提案する。
論文 参考訳(メタデータ) (2023-05-02T16:28:10Z) - Beyond Model Interpretability: On the Faithfulness and Adversarial
Robustness of Contrastive Textual Explanations [2.543865489517869]
本研究は、説明の忠実さに触発された新たな評価手法の基盤を築き、テキストの反事実を動機づけるものである。
感情分析データを用いた実験では, 両モデルとも, 対物関係の関連性は明らかでないことがわかった。
論文 参考訳(メタデータ) (2022-10-17T09:50:02Z) - Fine-Grained Visual Entailment [51.66881737644983]
そこで本稿では,テキストから画像への微粒な知識要素の論理的関係を予測することを目的として,このタスクの拡張を提案する。
従来の研究とは異なり、本手法は本質的に説明可能であり、異なるレベルの粒度で論理的予測を行う。
本手法は,手動でアノテートした知識要素のデータセットを用いて評価し,この課題に対して68.18%の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-03-29T16:09:38Z) - The Causal Marginal Polytope for Bounding Treatment Effects [9.196779204457059]
グローバル因果モデルを構築することなく因果関係を同定する手法を提案する。
我々は,グローバル因果モデルを構築することなく,因果モデルの限界とデータとの整合性を強制する。
我々はこの局所的に一貫した辺縁の集合を、因果的辺縁ポリトープと呼ぶ。
論文 参考訳(メタデータ) (2022-02-28T15:08:22Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - Adversarial Robustness of Supervised Sparse Coding [34.94566482399662]
表現を学習すると同時に、正確な一般化境界と堅牢性証明を与えるモデルを考える。
線形エンコーダと組み合わされたスパーシティプロモーティングエンコーダを組み合わせた仮説クラスに着目した。
エンドツーエンドの分類のための堅牢性証明を提供する。
論文 参考訳(メタデータ) (2020-10-22T22:05:21Z) - On Catastrophic Interference in Atari 2600 Games [104.61596014400892]
干渉が高原にパフォーマンスをもたらすことを示す。
アーキテクチャ、学習アルゴリズム、環境にまたがるパフォーマンス向上を実証します。
より洗練された分析によって、あるゲームの一部を学ぶことは、しばしば他の場所で予測エラーを増加させることを示している。
論文 参考訳(メタデータ) (2020-02-28T00:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。