論文の概要: Causal Feature Selection for Responsible Machine Learning
- arxiv url: http://arxiv.org/abs/2402.02696v1
- Date: Mon, 5 Feb 2024 03:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 17:58:16.741532
- Title: Causal Feature Selection for Responsible Machine Learning
- Title(参考訳): 応答性機械学習のための因果的特徴選択
- Authors: Raha Moraffah, Paras Sheth, Saketh Vishnubhatla, and Huan Liu
- Abstract要約: 責任ある機械学習の必要性が生まれ、倫理的および社会的価値にMLモデルを整合させることに焦点が当てられている。
この調査は、解釈可能性、公正性、敵の一般化、ドメインの堅牢性という4つの主要な問題に対処する。
- 参考スコア(独自算出の注目度): 14.082894268627124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) has become an integral aspect of many real-world
applications. As a result, the need for responsible machine learning has
emerged, focusing on aligning ML models to ethical and social values, while
enhancing their reliability and trustworthiness. Responsible ML involves many
issues. This survey addresses four main issues: interpretability, fairness,
adversarial robustness, and domain generalization. Feature selection plays a
pivotal role in the responsible ML tasks. However, building upon statistical
correlations between variables can lead to spurious patterns with biases and
compromised performance. This survey focuses on the current study of causal
feature selection: what it is and how it can reinforce the four aspects of
responsible ML. By identifying features with causal impacts on outcomes and
distinguishing causality from correlation, causal feature selection is posited
as a unique approach to ensuring ML models to be ethically and socially
responsible in high-stakes applications.
- Abstract(参考訳): 機械学習(ML)は多くの現実世界のアプリケーションにおいて重要な側面となっている。
その結果、責任ある機械学習の必要性が出現し、MLモデルを倫理的および社会的価値に整合させ、信頼性と信頼性を高めることに集中した。
責任あるMLには多くの問題がある。
この調査は、解釈可能性、公正性、敵の堅牢性、ドメインの一般化の4つの主要な問題に対処する。
機能選択は、責任あるMLタスクにおいて重要な役割を果たす。
しかしながら、変数間の統計的相関に基づいて構築すると、バイアスやパフォーマンスが損なわれるようなスプリアスパターンにつながる可能性がある。
この調査は、責任のあるmlの4つの側面を強化するための、因果的特徴の選択に関する現在の研究に焦点を当てている。
因果関係が結果に影響を及ぼす特徴を特定し、因果関係を相関から区別することで、因果的特徴選択は、高スループットアプリケーションにおいて倫理的かつ社会的に責任を持つmlモデルを確実にするためのユニークなアプローチとして仮定される。
関連論文リスト
- The Multiple Dimensions of Spuriousness in Machine Learning [3.475875199871536]
データからの相関学習は、今日の機械学習(ML)と人工知能(AI)研究の基礎となる。
このようなアプローチは、ビッグデータコーパス内のパターン付き関係の自動発見を可能にするが、意図しない相関が捕捉された場合、障害モードの影響を受けやすい。
この脆弱性は、しばしば、パフォーマンス、公平性、堅牢性をモデル化する障害として批判される、急進性の尋問への関心を拡大した。
論文 参考訳(メタデータ) (2024-11-07T13:29:32Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Mechanism learning: Reverse causal inference in the presence of multiple unknown confounding through front-door causal bootstrapping [0.8901073744693314]
機械学習(ML)予測モデルの最大の制限は、変数間の因果関係ではなく、関連性を取り戻すことである。
本稿では,前向きの因果ブートストラップを用いて観測データを分解する機構学習を提案する。
提案手法は,完全合成,半合成,実世界のデータセットを用いて,信頼性,不偏性,因果的ML予測器を検出できることを実証する。
論文 参考訳(メタデータ) (2024-10-26T03:34:55Z) - Do Influence Functions Work on Large Language Models? [10.463762448166714]
影響関数は、個々のトレーニングデータポイントがモデルの予測に与える影響を定量化することを目的としている。
我々は,複数のタスクにまたがる影響関数を評価し,ほとんどの設定において不整合なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-09-30T06:50:18Z) - MMRel: A Relation Understanding Benchmark in the MLLM Era [72.95901753186227]
MMRel(Multi-Modal Relation Understanding)は、オブジェクト間の関係に関する大規模で高品質で多様なデータを特徴付けるベンチマークである。
MMRelは、関係理解に基づくMLLMの評価や、関係理解能力を高めるための微調整MLLMに最適である。
論文 参考訳(メタデータ) (2024-06-13T13:51:59Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - A Unified Causal View of Instruction Tuning [76.1000380429553]
メタ構造因果モデル(meta-SCM)を開発し、異なるNLPタスクをデータの単一因果構造の下で統合する。
主なアイデアは、タスク要求因果関係を学習し、タスクの予測にのみそれらを使用することである。
論文 参考訳(メタデータ) (2024-02-09T07:12:56Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。