論文の概要: Recourse under Model Multiplicity via Argumentative Ensembling
(Technical Report)
- arxiv url: http://arxiv.org/abs/2312.15097v2
- Date: Wed, 3 Jan 2024 15:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 16:10:03.360249
- Title: Recourse under Model Multiplicity via Argumentative Ensembling
(Technical Report)
- Title(参考訳): 弁証的組立によるモデル多重性に基づく授業(技術報告)
- Authors: Junqi Jiang, Antonio Rago, Francesco Leofante, Francesca Toni
- Abstract要約: 我々は、recourse-aware ensembling と命名し、その解決方法が満足すべきいくつかの望ましい性質を同定する。
理論的および実験的に、議論的アンサンブルは既存の手法に欠けている性質を満足し、トレードオフは最小のWrt精度であることを示す。
- 参考スコア(独自算出の注目度): 17.429631079094186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model Multiplicity (MM) arises when multiple, equally performing machine
learning models can be trained to solve the same prediction task. Recent
studies show that models obtained under MM may produce inconsistent predictions
for the same input. When this occurs, it becomes challenging to provide
counterfactual explanations (CEs), a common means for offering recourse
recommendations to individuals negatively affected by models' predictions. In
this paper, we formalise this problem, which we name recourse-aware ensembling,
and identify several desirable properties which methods for solving it should
satisfy. We show that existing ensembling methods, naturally extended in
different ways to provide CEs, fail to satisfy these properties. We then
introduce argumentative ensembling, deploying computational argumentation to
guarantee robustness of CEs to MM, while also accommodating customisable user
preferences. We show theoretically and experimentally that argumentative
ensembling satisfies properties which the existing methods lack, and that the
trade-offs are minimal wrt accuracy.
- Abstract(参考訳): モデル重複度(model multiplicity, mm)は、同じ予測タスクを解決するために、複数の均等な機械学習モデルをトレーニングできる場合に発生する。
近年の研究では、MMで得られたモデルが同一入力に対して一貫性のない予測を生成する可能性が示されている。
これが起こると、モデル予測によって負の影響を受ける個人にリコメンデーションレコメンデーションを提供する一般的な手段である、反実的説明(CE)の提供が困難になる。
本稿では,recourse-aware ensemblingと名づけたこの問題を定式化し,その解決法が満たすべきいくつかの望ましい性質を明らかにする。
既存のセンシングメソッドは、cesのさまざまな方法で自然に拡張されているが、これらの特性を満たさないことを示している。
次に,ces から mm へのロバスト性を保証するために計算的議論を展開し,カスタマイズ可能なユーザ嗜好を満たした議論的センスリングを導入する。
理論的および実験的に、議論的アンサンブルは既存の手法に欠けている性質を満足し、トレードオフは最小のWrt精度であることを示す。
関連論文リスト
- Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Variational Inference of Parameters in Opinion Dynamics Models [9.51311391391997]
この研究は、変数推論を用いて、意見力学 ABM のパラメータを推定する。
我々は推論プロセスを自動微分に適した最適化問題に変換する。
提案手法は, シミュレーションベース法とMCMC法より, マクロ的(有界信頼区間とバックファイア閾値)と微視的(200ドル, エージェントレベルの役割)の両方を正確に推定する。
論文 参考訳(メタデータ) (2024-03-08T14:45:18Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Coverage-Validity-Aware Algorithmic Recourse [23.643366441803796]
本稿では,モデルシフトに対するロバスト性を示すモデルに依存しない談話を生成する新しい枠組みを提案する。
筆者らのフレームワークはまず,非線形(ブラックボックス)モデルのカバレッジを意識した線形サロゲートを構築する。
我々の代理は近似超平面を直感的に推し進め、頑健なだけでなく解釈可能なレコースも容易にすることを示した。
論文 参考訳(メタデータ) (2023-11-19T15:21:49Z) - Surrogate Likelihoods for Variational Annealed Importance Sampling [11.144915453864854]
我々は他の変分パラメータと共同で学習できる代理可能性を導入する。
本手法は,確率的プログラミングフレームワークにおけるブラックボックス推論に適していることを示す。
論文 参考訳(メタデータ) (2021-12-22T19:49:45Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Learning Invariances for Interpretability using Supervised VAE [0.0]
我々はモデルを解釈する手段としてモデル不変性を学習する。
可変オートエンコーダ(VAE)の教師型形式を提案する。
我々は、我々のモデルと特徴属性の手法を組み合わせることで、モデルの意思決定プロセスについてよりきめ細やかな理解を得られることを示す。
論文 参考訳(メタデータ) (2020-07-15T10:14:16Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。