論文の概要: Process Knowledge-infused Learning for Suicidality Assessment on Social
Media
- arxiv url: http://arxiv.org/abs/2204.12560v1
- Date: Tue, 26 Apr 2022 19:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 01:09:56.612541
- Title: Process Knowledge-infused Learning for Suicidality Assessment on Social
Media
- Title(参考訳): ソーシャルメディアの適性評価のためのプロセス知識注入学習
- Authors: Kaushik Roy, Manas Gaur, Qi Zhang, Amit Sheth
- Abstract要約: 現在の手法は、データからラベルを予測する従来のパイプラインに依存している。
説明可能なAI(XAI)モデルを使用したラベル予測のためのデータに関するポストホックな説明は、エンドユーザに多くを望まれている。
PK-iLは構造化プロセスの知識を利用して、エンドユーザーにとって理にかなう予測プロセスを明確に説明する。
- 参考スコア(独自算出の注目度): 14.362199192484006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Improving the performance and natural language explanations of deep learning
algorithms is a priority for adoption by humans in the real world. In several
domains, such as healthcare, such technology has significant potential to
reduce the burden on humans by providing quality assistance at scale. However,
current methods rely on the traditional pipeline of predicting labels from
data, thus completely ignoring the process and guidelines used to obtain the
labels. Furthermore, post hoc explanations on the data to label prediction
using explainable AI (XAI) models, while satisfactory to computer scientists,
leave much to be desired to the end-users due to lacking explanations of the
process in terms of human-understandable concepts. We \textit{introduce},
\textit{formalize}, and \textit{develop} a novel Artificial Intelligence (A)
paradigm -- Process Knowledge-infused Learning (PK-iL). PK-iL utilizes a
structured process knowledge that explicitly explains the underlying prediction
process that makes sense to end-users. The qualitative human evaluation
confirms through a annotator agreement of 0.72, that humans are understand
explanations for the predictions. PK-iL also performs competitively with the
state-of-the-art (SOTA) baselines.
- Abstract(参考訳): ディープラーニングアルゴリズムのパフォーマンス向上と自然言語による説明は、現実の世界における人間の採用の優先事項である。
医療などいくつかの分野では、このような技術は、大規模に品質支援を提供することで、人間の負担を軽減する大きな可能性がある。
しかし、現在の手法は、データからラベルを予測する従来のパイプラインに依存しており、ラベルを取得するのに使用されるプロセスやガイドラインを完全に無視している。
さらに、説明可能なai(xai)モデルを使用して予測をラベル付けるデータに関するhoc後の説明は、コンピュータ科学者には満足できるものの、人間の理解可能な概念の観点からのプロセスの説明が欠如しているため、エンドユーザに多くを希望する。
私たちは、新しい人工知能(a)パラダイム -- process knowledge-infused learning (pk-il) -- で、textit{introduce}, \textit{formalize}, \textit{develop} を実践しています。
PK-iLは構造化プロセスの知識を利用して、エンドユーザーにとって理にかなう予測プロセスを明確に説明する。
定性的な人間の評価は、アノテータによる0.72の合意を通じて確認され、人間は予測に関する説明を理解している。
PK-iLは最先端のSOTAベースラインとも競合する。
関連論文リスト
- Concept Induction using LLMs: a user experiment for assessment [1.1982127665424676]
本研究では,人間に対する説明として意味のある高レベルな概念を生成するために,LLM(Large Language Model)の可能性を探る。
我々は、LLMによって生成された概念を、人間によって生成された概念とECII概念誘導システムという、他の2つの方法と比較する。
人為的な説明は依然として優れているが, GPT-4 から派生した概念は, ECII が生成した概念よりも人間にとって理解しやすいことが示唆された。
論文 参考訳(メタデータ) (2024-04-18T03:22:02Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - An Objective Metric for Explainable AI: How and Why to Estimate the
Degree of Explainability [3.04585143845864]
本稿では, 客観的手法を用いて, 正しい情報のeX説明可能性の度合いを測定するための, モデルに依存しない新しい指標を提案する。
私たちは、医療とファイナンスのための2つの現実的なAIベースのシステムについて、いくつかの実験とユーザースタディを設計しました。
論文 参考訳(メタデータ) (2021-09-11T17:44:13Z) - LioNets: A Neural-Specific Local Interpretation Technique Exploiting
Penultimate Layer Information [6.570220157893279]
解釈可能な機械学習(IML)は研究の緊急のトピックである。
本稿では,テキストデータと時系列データに適用される局所的,神経特異的な解釈プロセスに焦点を当てる。
論文 参考訳(メタデータ) (2021-04-13T09:39:33Z) - Teaching the Machine to Explain Itself using Domain Knowledge [4.462334751640166]
非技術的人間-ループは、モデル予測の背後にある理論的根拠を理解するのに苦労する。
本稿では、意思決定タスクと関連する説明を共同で学習するニューラルネットワークベースのフレームワークJOELを提案する。
認定された専門家のプールからドメインフィードバックを収集し、それをモデル(人間の教え)を改善するために利用します。
論文 参考訳(メタデータ) (2020-11-27T18:46:34Z) - Explainable AI for Classification using Probabilistic Logic Inference [9.656846523452502]
説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベース上で線形プログラミングによる確率的推論を行う。
これは、ある分類を説明として責任を負う決定的な特徴を特定し、アートリー値ベースの手法であるSHAPに類似した結果を生成する。
論文 参考訳(メタデータ) (2020-05-05T11:39:23Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。