論文の概要: Explainable AI for Psychological Profiling from Digital Footprints: A
Case Study of Big Five Personality Predictions from Spending Data
- arxiv url: http://arxiv.org/abs/2111.06908v1
- Date: Fri, 12 Nov 2021 19:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 06:22:55.916338
- Title: Explainable AI for Psychological Profiling from Digital Footprints: A
Case Study of Big Five Personality Predictions from Spending Data
- Title(参考訳): デジタルフットプリントからの心理学的プロファイリングのための説明可能なAI:スプレッディングデータによる5大個人性予測を事例として
- Authors: Yanou Ramon, Sandra C. Matz, R.A. Farrokhnia, David Martens
- Abstract要約: 説明可能なAI(XAI)が、デジタルフットプリントから心理的特徴を分類するモデルの検証、質問、改善にどのように役立つかを示します。
まず,グローバルなルール抽出が,モデルがパーソナリティを最も予測的に識別する消費パターンにどのように光を当てるかを示す。
第2に,個人が個々人格クラスに割り当てられていることを示すために,現地ルール抽出を実装した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Every step we take in the digital world leaves behind a record of our
behavior; a digital footprint. Research has suggested that algorithms can
translate these digital footprints into accurate estimates of psychological
characteristics, including personality traits, mental health or intelligence.
The mechanisms by which AI generates these insights, however, often remain
opaque. In this paper, we show how Explainable AI (XAI) can help domain experts
and data subjects validate, question, and improve models that classify
psychological traits from digital footprints. We elaborate on two popular XAI
methods (rule extraction and counterfactual explanations) in the context of Big
Five personality predictions (traits and facets) from financial transactions
data (N = 6,408). First, we demonstrate how global rule extraction sheds light
on the spending patterns identified by the model as most predictive for
personality, and discuss how these rules can be used to explain, validate, and
improve the model. Second, we implement local rule extraction to show that
individuals are assigned to personality classes because of their unique
financial behavior, and that there exists a positive link between the model's
prediction confidence and the number of features that contributed to the
prediction. Our experiments highlight the importance of both global and local
XAI methods. By better understanding how predictive models work in general as
well as how they derive an outcome for a particular person, XAI promotes
accountability in a world in which AI impacts the lives of billions of people
around the world.
- Abstract(参考訳): デジタル世界でのあらゆるステップは、私たちの行動の記録、すなわちデジタルフットプリントを残します。
アルゴリズムはこれらのデジタルフットプリントを、パーソナリティ特性、メンタルヘルス、知性など、心理的特性の正確な推定に翻訳できる、と研究は示唆している。
しかし、AIがこれらの洞察を生成するメカニズムは、しばしば不透明である。
本稿では、説明可能なAI(XAI)が、デジタルフットプリントから心理的特徴を分類するモデルの検証、質問、改善にどのように役立つかを示す。
金融取引データ(n = 6,408)から得られる5つの人格予測(特性とファセット)の文脈において,2つの一般的なxai手法(ルール抽出と反事実説明)を詳述した。
まず,グローバルルール抽出が,モデルがパーソナリティを最も予測するものとして認識した支出パターンにどのように光を当てるかを示し,これらのルールがモデルの説明,検証,改善にどのように役立つかについて議論する。
第2に,個人が個性的金融行動のために個性クラスに割り当てられていること,モデルの予測信頼度と予測に寄与する特徴数との間には正の相関があることを示すために,局所規則抽出を実装した。
実験では、グローバルとローカルの両方のxaiメソッドの重要性を強調した。
XAIは、予測モデルが一般的にどのように機能するか、特定の人に対してどのように結果をもたらすかをよりよく理解することで、AIが世界中の何十億もの人々の生活に影響を与える世界の説明責任を促進します。
関連論文リスト
- AI Readiness in Healthcare through Storytelling XAI [0.5120567378386615]
我々は,マルチタスク蒸留と解釈可能性技術を組み合わせて,聴衆中心の説明可能性を実現する手法を開発した。
我々の手法は、責任あるAIを実現するために、ドメインエキスパートと機械学習エキスパートの両方の信頼を高める。
論文 参考訳(メタデータ) (2024-10-24T13:30:18Z) - Learning to Generate and Evaluate Fact-checking Explanations with Transformers [10.970249299147866]
XAI(Explainable Artificial Antelligence)の研究
我々は,人間のアクセス可能な説明を生成することによって,意思決定を文脈化し,正当化するトランスフォーマーベースの事実チェックモデルを開発した。
我々は人工知能(AI)による説明と人間の判断を一致させる必要性を強調した。
論文 参考訳(メタデータ) (2024-10-21T06:22:51Z) - Natural Example-Based Explainability: a Survey [0.0]
本稿では,自然例に基づくXAIにおける最先端技術の概要について述べる。
同様の例、反実例、半実例、影響力のある例、プロトタイプ、コンセプトなどです。
論文 参考訳(メタデータ) (2023-09-05T09:46:20Z) - Assessing Large Language Models' ability to predict how humans balance
self-interest and the interest of others [0.0]
生成的人工知能(AI)は意思決定プロセスに革命をもたらす大きな可能性を秘めている。
生成AIを活用することで、人間はデータ駆動の洞察と予測の恩恵を受けることができる。
しかし、AIが意思決定の信頼できるアシスタントになるためには、自己利益と他者の利益のバランスを捉えることが不可欠である。
論文 参考訳(メタデータ) (2023-07-21T13:23:31Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。