論文の概要: Symbolic AI for XAI: Evaluating LFIT Inductive Programming for Fair and
Explainable Automatic Recruitment
- arxiv url: http://arxiv.org/abs/2012.00360v1
- Date: Tue, 1 Dec 2020 09:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 20:08:29.660672
- Title: Symbolic AI for XAI: Evaluating LFIT Inductive Programming for Fair and
Explainable Automatic Recruitment
- Title(参考訳): XAIのためのシンボリックAI:公正かつ説明可能な自動リクルートのためのLFITインダクティブプログラミングの評価
- Authors: Alfonso Ortega and Julian Fierrez and Aythami Morales and Zilong Wang
and Tony Ribeiro
- Abstract要約: 我々は,与えられたブラックボックスシステムと同等の命題論理理論を学習するICP手法を提案する。
本稿では,この問題に対するLFITの表現性を示し,他の領域に適用可能なスキームを提案する。
- 参考スコア(独自算出の注目度): 11.460075612587591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning methods are growing in relevance for biometrics and personal
information processing in domains such as forensics, e-health, recruitment, and
e-learning. In these domains, white-box (human-readable) explanations of
systems built on machine learning methods can become crucial. Inductive Logic
Programming (ILP) is a subfield of symbolic AI aimed to automatically learn
declarative theories about the process of data. Learning from Interpretation
Transition (LFIT) is an ILP technique that can learn a propositional logic
theory equivalent to a given black-box system (under certain conditions). The
present work takes a first step to a general methodology to incorporate
accurate declarative explanations to classic machine learning by checking the
viability of LFIT in a specific AI application scenario: fair recruitment based
on an automatic tool generated with machine learning methods for ranking
Curricula Vitae that incorporates soft biometric information (gender and
ethnicity). We show the expressiveness of LFIT for this specific problem and
propose a scheme that can be applicable to other domains.
- Abstract(参考訳): 機械学習の手法は、法医学、eヘルス、採用、eラーニングといった分野におけるバイオメトリックスと個人情報処理の関連性が高まっている。
これらのドメインでは、機械学習手法に基づいて構築されたシステムのホワイトボックス(人間可読性)の説明が重要である。
帰納的論理プログラミング(ilp)は、データ処理に関する宣言的理論を自動的に学習することを目的としたシンボリックaiのサブフィールドである。
LFIT(Learning from Interpretation Transition)は、特定のブラックボックスシステム(特定の条件下で)と同等の命題論理理論を学習できるICP技術である。
本研究は,ソフトバイオメトリック情報(性別と民族性)を組み込んだCurricula Vitaeのランク付けのための機械学習手法によって生成された,公正な採用方法に基づく,特定のAIアプリケーションシナリオにおけるLFITの有効性をチェックすることによって,古典的機械学習に正確な宣言的説明を組み込むための一般的な方法論への第一歩である。
本稿では,この問題に対するLFITの表現性を示し,他の領域に適用可能なスキームを提案する。
関連論文リスト
- The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Interpretable and Explainable Machine Learning Methods for Predictive
Process Monitoring: A Systematic Literature Review [1.3812010983144802]
本稿では,機械学習モデル(ML)の予測プロセスマイニングの文脈における説明可能性と解釈可能性について,系統的に検討する。
我々は、様々なアプリケーション領域にまたがる現在の方法論とその応用の概要を概観する。
我々の研究は、プロセス分析のためのより信頼性が高く透明で効果的なインテリジェントシステムの開発と実装方法について、研究者や実践者がより深く理解することを目的としている。
論文 参考訳(メタデータ) (2023-12-29T12:43:43Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Planning for Learning Object Properties [117.27898922118946]
我々は、物体特性を象徴的な計画問題として認識するために、ニューラルネットワークを自動的に訓練する問題を定式化する。
トレーニングデータセット作成と学習プロセスを自動化するための戦略を作成するために,計画手法を使用します。
シミュレーションと実環境の両方で実験的な評価を行う。
論文 参考訳(メタデータ) (2023-01-15T09:37:55Z) - Feature Visualization within an Automated Design Assessment leveraging
Explainable Artificial Intelligence Methods [0.0]
3次元CADデータから駆動されるディープラーニングシステムによって主に活用される自動能力評価について紹介した。
現在の評価システムは、抽象的な特徴に関してCADデータを評価することができるが、システム決定の理由に関する幾何学的な指標は持っていない。
NeuroCADプロジェクト内では、ある抽象的特徴に関連する幾何学的特徴を特定するためにxAIメソッドが使用される。
論文 参考訳(メタデータ) (2022-01-28T13:31:42Z) - A Practical Tutorial on Explainable AI Techniques [5.671062637797752]
このチュートリアルは、コンピュータサイエンスのバックグラウンドを持つすべての読者にとって、手書きの教科書となることを意図している。
機械学習モデルの直感的な洞察を得ることを目標としている。
論文 参考訳(メタデータ) (2021-11-13T17:47:31Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Altruist: Argumentative Explanations through Local Interpretations of
Predictive Models [10.342433824178825]
既存の説明技法はエンドユーザには理解できないことが多い。
本稿では,特徴重視の解釈の真相を識別する予備的メタ説明手法を提案する。
実験は、複数の解釈技法のアンサンブルが、より真理的な説明をもたらすことを強く示唆している。
論文 参考訳(メタデータ) (2020-10-15T10:36:48Z) - Induction and Exploitation of Subgoal Automata for Reinforcement
Learning [75.55324974788475]
本稿では,Regressed Learning (RL)タスクにおけるサブゴールの学習と活用のためのISAを提案する。
ISAは、タスクのサブゴールによってエッジがラベル付けされたオートマトンであるサブゴールオートマトンを誘導することで強化学習をインターリーブする。
サブゴールオートマトンはまた、タスクの完了を示す状態と、タスクが成功せずに完了したことを示す状態の2つの特別な状態で構成されている。
論文 参考訳(メタデータ) (2020-09-08T16:42:55Z) - Explainable AI for Classification using Probabilistic Logic Inference [9.656846523452502]
説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベース上で線形プログラミングによる確率的推論を行う。
これは、ある分類を説明として責任を負う決定的な特徴を特定し、アートリー値ベースの手法であるSHAPに類似した結果を生成する。
論文 参考訳(メタデータ) (2020-05-05T11:39:23Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。