論文の概要: Explainable AI through a Democratic Lens: DhondtXAI for Proportional Feature Importance Using the D'Hondt Method
- arxiv url: http://arxiv.org/abs/2411.05196v2
- Date: Wed, 13 Nov 2024 18:58:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:22:42.868856
- Title: Explainable AI through a Democratic Lens: DhondtXAI for Proportional Feature Importance Using the D'Hondt Method
- Title(参考訳): 民主的レンズによる説明可能なAI:D'Hondt法によるDhondtXAI
- Authors: Turker Berk Donmez,
- Abstract要約: 本研究では,DhondtXAI法におけるD'Hondtに基づく投票原則の統合について検討した。
DhondtXAIアプローチは、アライアンスの形成としきい値の設定を可能にし、解釈可能性を高める。
結果は、比例代表やアライアンスといった選挙原則をAI説明可能性に統合することで、ユーザの理解が向上することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In democratic societies, electoral systems play a crucial role in translating public preferences into political representation. Among these, the D'Hondt method is widely used to ensure proportional representation, balancing fair representation with governmental stability. Recently, there has been a growing interest in applying similar principles of proportional representation to enhance interpretability in machine learning, specifically in Explainable AI (XAI). This study investigates the integration of D'Hondt-based voting principles in the DhondtXAI method, which leverages resource allocation concepts to interpret feature importance within AI models. Through a comparison of SHAP (Shapley Additive Explanations) and DhondtXAI, we evaluate their effectiveness in feature attribution within CatBoost and XGBoost models for breast cancer and diabetes prediction, respectively. The DhondtXAI approach allows for alliance formation and thresholding to enhance interpretability, representing feature importance as seats in a parliamentary view. Statistical correlation analyses between SHAP values and DhondtXAI allocations support the consistency of interpretations, demonstrating DhondtXAI's potential as a complementary tool for understanding feature importance in AI models. The results highlight that integrating electoral principles, such as proportional representation and alliances, into AI explainability can improve user understanding, especially in high-stakes fields like healthcare.
- Abstract(参考訳): 民主社会では、選挙制度は公共の選好を政治的表現に翻訳する上で重要な役割を担っている。
これらのうち、D'Hondt法は比例表現を確保するために広く使われ、公正表現と政府の安定性のバランスをとる。
近年、機械学習、特に説明可能なAI(XAI)における解釈可能性を高めるために、比例表現の同様の原則を適用することへの関心が高まっている。
本研究では,DhondtXAI法におけるD'Hondtに基づく投票原則の統合について検討した。
SHAP (Shapley Additive Explanations) とDhondtXAI (DhondtXAI) を比較した。
DhondtXAI のアプローチは、連合の形成としきい値の設定を可能とし、解釈可能性を高め、議会の見解において特徴的重要性を示す。
SHAP値とDhondtXAI割り当ての統計的相関解析は解釈の一貫性をサポートし、DhondtXAIがAIモデルにおける特徴の重要性を理解するための補完ツールとしての可能性を示す。
結果は、比例代表やアライアンスなどの選挙原則をAI説明能力に統合することで、特に医療のような高度な分野におけるユーザーの理解が向上することを示している。
関連論文リスト
- From Abstract to Actionable: Pairwise Shapley Values for Explainable AI [0.8192907805418583]
提案するPairwise Shapley Valuesは,特徴属性を明示的,人間関連性のある比較に基礎を置く新しいフレームワークである。
本手法では,一値命令と組み合わせたペアワイズ参照選択を導入し,直観的,モデルに依存しない説明を行う。
Pairwise Shapley Valuesは多種多様な回帰・分類シナリオにおける解釈可能性を高めることを実証する。
論文 参考訳(メタデータ) (2025-02-18T04:20:18Z) - Found in Translation: semantic approaches for enhancing AI interpretability in face verification [0.4222205362654437]
本研究は,XAIフレームワークに意味概念を統合することで,モデル出力と人間の理解の包括的ギャップを埋めることにより,これまでの研究を拡張した。
ユーザが選択した顔のランドマークによって定義された意味的特徴を用いて,グローバルな説明とローカルな説明を組み合わせた新しいアプローチを提案する。
結果は、セマンティックベースのアプローチ、特に最も詳細なセットは、従来の手法よりも、モデル決定をよりきめ細やかな理解を提供することを示している。
論文 参考訳(メタデータ) (2025-01-06T08:34:53Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards a Shapley Value Graph Framework for Medical peer-influence [0.9449650062296824]
本稿では,機能間相互作用のグラフ表現を用いた説明を深く研究する新しい枠組みを提案する。
ブラックボックス機械学習(ML)モデルの解釈可能性を改善し、介入を通知することを目的としている。
論文 参考訳(メタデータ) (2021-12-29T16:24:50Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。