論文の概要: Conclusive Local Interpretation Rules for Random Forests
- arxiv url: http://arxiv.org/abs/2104.06040v1
- Date: Tue, 13 Apr 2021 09:15:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:42:09.930496
- Title: Conclusive Local Interpretation Rules for Random Forests
- Title(参考訳): ランダム林の総合的地域解釈規則
- Authors: Ioannis Mollas, Nick Bassiliades, Grigorios Tsoumakas
- Abstract要約: 差別、性別の不平等、経済的損害といった重要な状況において、機械学習モデルは明確な解釈を提供する必要がある。
説明としてルールを提供するランダムな森林固有の解釈手法であるLionForestsを紹介します。
また, 感度解析と最先端技術との比較を含む実験を行い, その貢献を実証した。
- 参考スコア(独自算出の注目度): 6.570220157893279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In critical situations involving discrimination, gender inequality, economic
damage, and even the possibility of casualties, machine learning models must be
able to provide clear interpretations for their decisions. Otherwise, their
obscure decision-making processes can lead to socioethical issues as they
interfere with people's lives. In the aforementioned sectors, random forest
algorithms strive, thus their ability to explain themselves is an obvious
requirement. In this paper, we present LionForests, which relies on a
preliminary work of ours. LionForests is a random forest-specific
interpretation technique, which provides rules as explanations. It is
applicable from binary classification tasks to multi-class classification and
regression tasks, and it is supported by a stable theoretical background.
Experimentation, including sensitivity analysis and comparison with
state-of-the-art techniques, is also performed to demonstrate the efficacy of
our contribution. Finally, we highlight a unique property of LionForests,
called conclusiveness, that provides interpretation validity and distinguishes
it from previous techniques.
- Abstract(参考訳): 差別、性別の不平等、経済的損害、さらには死傷者の可能性を含む重要な状況において、機械学習モデルは、彼らの決定に対して明確な解釈を提供することができる必要がある。
さもなければ、不明瞭な意思決定プロセスは、人々の生活に干渉する社会倫理的な問題を引き起こす可能性がある。
前述のセクターでは、ランダムな森林アルゴリズムが取り組んでおり、それ自身を説明する能力は明らかな要件である。
本稿では,本研究の予備的研究に依拠したライオンモレストについて述べる。
LionForestsは、ルールを説明として提供する、ランダムな森林固有の解釈テクニックである。
二項分類タスクから多クラス分類および回帰タスクに適用でき、安定した理論的背景によって支持される。
感度分析や最先端技術との比較を含む実験も実施し,本研究の有効性を実証した。
最後に,結論性(conclusiveness)と呼ばれるライオンモレストの独特な特性に注目し,解釈の妥当性を提供し,それ以前の手法と区別する。
関連論文リスト
- Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - A Taxonomy of Explainable Bayesian Networks [0.0]
ベイズネットワークにおける説明可能性の分類について紹介する。
我々は、モデルにおける説明可能性の既存の分類、推論または証拠を拡張して、決定の説明を含める。
論文 参考訳(メタデータ) (2021-01-28T07:29:57Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Enforcing Interpretability and its Statistical Impacts: Trade-offs
between Accuracy and Interpretability [30.501012698482423]
機械学習における解釈可能性の統計的コストに関する公式な研究は行われていない。
我々は、解釈可能な仮説の集合に対して経験的リスク最小化を行う行為として、解釈可能性を促進する行為をモデル化する。
我々は,解釈可能な分類器に対する制限が,過度な統計リスクの犠牲になる場合,正確性と解釈可能性の間のトレードオフを観察できるかどうかを事例分析により説明する。
論文 参考訳(メタデータ) (2020-10-26T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。