論文の概要: Explainable assessment of financial experts' credibility by classifying social media forecasts and checking the predictions with actual market data
- arxiv url: http://arxiv.org/abs/2406.11924v1
- Date: Mon, 17 Jun 2024 08:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-20 00:46:12.050418
- Title: Explainable assessment of financial experts' credibility by classifying social media forecasts and checking the predictions with actual market data
- Title(参考訳): ソーシャルメディア予測の分類と実際の市場データによる予測の検証による財務専門家の信用度の評価
- Authors: Silvia García-Méndez, Francisco de Arriba-Pérez, Jaime González-Gonzáleza, Francisco J. González-Castaño,
- Abstract要約: 本稿では,自然言語処理と機械学習を組み合わせた,ソーシャルメディアの財務担当者に対する信頼性評価ソリューションを提案する。
コントリビュータの評判は、資産価値に基づいて予測を自動的に分類し、これらの予測を実際の市場データで検証することで評価される。
このシステムは、関連する特徴のモデルに依存しない分析に基づいて、その決定に関する自然言語による説明を提供する。
- 参考スコア(独自算出の注目度): 6.817247544942709
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Social media include diverse interaction metrics related to user popularity, the most evident example being the number of user followers. The latter has raised concerns about the credibility of the posts by the most popular creators. However, most existing approaches to assess credibility in social media strictly consider this problem a binary classification, often based on a priori information, without checking if actual real-world facts back the users' comments. In addition, they do not provide automatic explanations of their predictions to foster their trustworthiness. In this work, we propose a credibility assessment solution for financial creators in social media that combines Natural Language Processing and Machine Learning. The reputation of the contributors is assessed by automatically classifying their forecasts on asset values by type and verifying these predictions with actual market data to approximate their probability of success. The outcome of this verification is a continuous credibility score instead of a binary result, an entirely novel contribution by this work. Moreover, social media metrics (i.e., user context) are exploited by calculating their correlation with the credibility rankings, providing insights on the interest of the end-users in financial posts and their forecasts (i.e., drop or rise). Finally, the system provides natural language explanations of its decisions based on a model-agnostic analysis of relevant features.
- Abstract(参考訳): ソーシャルメディアには、ユーザーの人気に関連する多様なインタラクションメトリクスが含まれており、最も顕著な例は、ユーザーのフォロワー数である。
後者は、最も人気のあるクリエーターによる投稿の信頼性に関する懸念を提起している。
しかしながら、ソーシャルメディアにおける信頼性を評価する既存のアプローチのほとんどは、この問題を、実際の現実の事実がユーザのコメントを返却するかどうかを確認することなく、しばしば優先順位情報に基づくバイナリ分類であると厳密にみなしている。
また、信頼を育むための予測について、自動的な説明は提供していない。
本研究では,自然言語処理と機械学習を組み合わせたソーシャルメディア上での財務担当者に対する信頼性評価ソリューションを提案する。
コントリビュータの評判は、資産価値の予測をタイプ別に自動的に分類し、これらの予測を実際の市場データで検証し、成功の確率を近似することで評価される。
この検証の結果は、バイナリ結果ではなく、継続的な信頼性スコアであり、この研究によるまったく新しい貢献である。
さらに、ソーシャルメディアのメトリクス(すなわちユーザコンテキスト)は、信頼度ランキングとの相関を計算し、ファイナンシャルポストにおけるエンドユーザの関心と予測(すなわち、ドロップまたはアップ)に関する洞察を提供することによって活用される。
最後に、関係する特徴のモデルに依存しない分析に基づいて、その決定に関する自然言語による説明を提供する。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Exposing and Explaining Fake News On-the-Fly [4.278181795494584]
この研究は、偽ニュースをリアルタイムで認識するための説明可能なオンライン分類手法に寄与する。
提案手法は、教師なしおよび教師なしの機械学習アプローチとオンライン生成レキシカを組み合わせたものである。
提案手法の性能はTwitterの実際のデータセットで検証され,その結果は80%精度とマクロF測定値を得た。
論文 参考訳(メタデータ) (2024-05-03T14:49:04Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - DeepTrust: A Reliable Financial Knowledge Retrieval Framework For
Explaining Extreme Pricing Anomalies [0.0]
DeepTrustは、Twitter上の信頼できる金融知識検索フレームワークで、極端な価格変動を高速で説明する。
提案するフレームワークは,異常検出,情報検索,信頼性評価のための3つのモジュールから構成される。
このフレームワークは2021年4月29日と30日の2つの自己注釈付き金融異常、すなわちTwitterとFacebookの株価で評価されている。
論文 参考訳(メタデータ) (2022-03-11T06:29:22Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - SOK: Seeing and Believing: Evaluating the Trustworthiness of Twitter
Users [4.609388510200741]
現在、どのニュースやユーザーが信頼できるか、どれがそうでないかを自動で判断する方法はない。
本研究では、Twitter上で5万人の政治家の行動を分析するモデルを作成しました。
政治Twitterのユーザを、ランダムな森林、多層パーセプトロン、サポートベクターマシンを使って、信頼あるいは信頼できないと分類した。
論文 参考訳(メタデータ) (2021-07-16T17:39:32Z) - Information Credibility in the Social Web: Contexts, Approaches, and
Open Issues [2.2133187119466116]
信頼性(英語: Cliability)とは、個人によって認識される品質であり、必ずしも自分の認知能力と偽の情報とを区別できるわけではない。
ソーシャルメディアにおける信頼性を自動的に評価するためのいくつかのアプローチが提案されている。
論文 参考訳(メタデータ) (2020-01-26T15:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。