論文の概要: Explainable AI for Psychological Profiling from Digital Footprints: A
Case Study of Big Five Personality Predictions from Spending Data
- arxiv url: http://arxiv.org/abs/2111.06908v1
- Date: Fri, 12 Nov 2021 19:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 06:22:55.916338
- Title: Explainable AI for Psychological Profiling from Digital Footprints: A
Case Study of Big Five Personality Predictions from Spending Data
- Title(参考訳): デジタルフットプリントからの心理学的プロファイリングのための説明可能なAI:スプレッディングデータによる5大個人性予測を事例として
- Authors: Yanou Ramon, Sandra C. Matz, R.A. Farrokhnia, David Martens
- Abstract要約: 説明可能なAI(XAI)が、デジタルフットプリントから心理的特徴を分類するモデルの検証、質問、改善にどのように役立つかを示します。
まず,グローバルなルール抽出が,モデルがパーソナリティを最も予測的に識別する消費パターンにどのように光を当てるかを示す。
第2に,個人が個々人格クラスに割り当てられていることを示すために,現地ルール抽出を実装した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Every step we take in the digital world leaves behind a record of our
behavior; a digital footprint. Research has suggested that algorithms can
translate these digital footprints into accurate estimates of psychological
characteristics, including personality traits, mental health or intelligence.
The mechanisms by which AI generates these insights, however, often remain
opaque. In this paper, we show how Explainable AI (XAI) can help domain experts
and data subjects validate, question, and improve models that classify
psychological traits from digital footprints. We elaborate on two popular XAI
methods (rule extraction and counterfactual explanations) in the context of Big
Five personality predictions (traits and facets) from financial transactions
data (N = 6,408). First, we demonstrate how global rule extraction sheds light
on the spending patterns identified by the model as most predictive for
personality, and discuss how these rules can be used to explain, validate, and
improve the model. Second, we implement local rule extraction to show that
individuals are assigned to personality classes because of their unique
financial behavior, and that there exists a positive link between the model's
prediction confidence and the number of features that contributed to the
prediction. Our experiments highlight the importance of both global and local
XAI methods. By better understanding how predictive models work in general as
well as how they derive an outcome for a particular person, XAI promotes
accountability in a world in which AI impacts the lives of billions of people
around the world.
- Abstract(参考訳): デジタル世界でのあらゆるステップは、私たちの行動の記録、すなわちデジタルフットプリントを残します。
アルゴリズムはこれらのデジタルフットプリントを、パーソナリティ特性、メンタルヘルス、知性など、心理的特性の正確な推定に翻訳できる、と研究は示唆している。
しかし、AIがこれらの洞察を生成するメカニズムは、しばしば不透明である。
本稿では、説明可能なAI(XAI)が、デジタルフットプリントから心理的特徴を分類するモデルの検証、質問、改善にどのように役立つかを示す。
金融取引データ(n = 6,408)から得られる5つの人格予測(特性とファセット)の文脈において,2つの一般的なxai手法(ルール抽出と反事実説明)を詳述した。
まず,グローバルルール抽出が,モデルがパーソナリティを最も予測するものとして認識した支出パターンにどのように光を当てるかを示し,これらのルールがモデルの説明,検証,改善にどのように役立つかについて議論する。
第2に,個人が個性的金融行動のために個性クラスに割り当てられていること,モデルの予測信頼度と予測に寄与する特徴数との間には正の相関があることを示すために,局所規則抽出を実装した。
実験では、グローバルとローカルの両方のxaiメソッドの重要性を強調した。
XAIは、予測モデルが一般的にどのように機能するか、特定の人に対してどのように結果をもたらすかをよりよく理解することで、AIが世界中の何十億もの人々の生活に影響を与える世界の説明責任を促進します。
関連論文リスト
- Natural Example-Based Explainability: a Survey [0.0]
本稿では,自然例に基づくXAIにおける最先端技術の概要について述べる。
同様の例、反実例、半実例、影響力のある例、プロトタイプ、コンセプトなどです。
論文 参考訳(メタデータ) (2023-09-05T09:46:20Z) - Assessing Large Language Models' ability to predict how humans balance
self-interest and the interest of others [0.0]
生成的人工知能(AI)は意思決定プロセスに革命をもたらす大きな可能性を秘めている。
生成AIを活用することで、人間はデータ駆動の洞察と予測の恩恵を受けることができる。
しかし、AIが意思決定の信頼できるアシスタントになるためには、自己利益と他者の利益のバランスを捉えることが不可欠である。
論文 参考訳(メタデータ) (2023-07-21T13:23:31Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - The future of human-centric eXplainable Artificial Intelligence (XAI) is
not post-hoc explanations [0.6445605125467573]
人間中心のXAIにおける現在のアプローチは、単一の説明器に依存する傾向がある。
我々は、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計に移行することを提案する。
論文 参考訳(メタデータ) (2023-07-01T15:24:47Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。