論文の概要: SocialCredit+
- arxiv url: http://arxiv.org/abs/2506.12099v1
- Date: Thu, 12 Jun 2025 18:44:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.182883
- Title: SocialCredit+
- Title(参考訳): SocialCredit+
- Authors: Thabassum Aslam, Anees Aslam,
- Abstract要約: SocialCredit+は、公開されているソーシャルメディアデータを活用し、従来の信用評価を強化するAIによる信用スコアシステムである。
会話型銀行アシスタントを使ってユーザーの同意を集め、公開プロフィールを取得する。
シャリア準拠層は、いかなる非ハラル指標も旗を掲げ、イスラム倫理に基づく金融行動を禁じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: SocialCredit+ is AI powered credit scoring system that leverages publicly available social media data to augment traditional credit evaluation. It uses a conversational banking assistant to gather user consent and fetch public profiles. Multimodal feature extractors analyze posts, bios, images, and friend networks to generate a rich behavioral profile. A specialized Sharia-compliance layer flags any non-halal indicators and prohibited financial behavior based on Islamic ethics. The platform employs a retrieval-augmented generation module: an LLM accesses a domain specific knowledge base to generate clear, text-based explanations for each decision. We describe the end-to-end architecture and data flow, the models used, and system infrastructure. Synthetic scenarios illustrate how social signals translate into credit-score factors. This paper emphasizes conceptual novelty, compliance mechanisms, and practical impact, targeting AI researchers, fintech practitioners, ethical banking jurists, and investors.
- Abstract(参考訳): SocialCredit+は、公開されているソーシャルメディアデータを活用し、従来の信用評価を強化するAIによる信用スコアシステムである。
会話型銀行アシスタントを使ってユーザーの同意を集め、公開プロフィールを取得する。
マルチモーダル特徴抽出器は、ポスト、バイオ、画像、友人ネットワークを分析し、リッチな行動プロファイルを生成する。
特別なシャリア準拠層は、いかなる非ハラル指標も旗を掲げ、イスラム倫理に基づく金銭的行動を禁じている。
LLMはドメイン固有の知識ベースにアクセスし、各決定に対して明確なテキストベースの説明を生成する。
エンド・ツー・エンドのアーキテクチャとデータ・フロー、使用するモデル、システム・インフラストラクチャについて説明する。
合成シナリオは、社会的信号が信用スコア要因にどのように変換されるかを示す。
本稿では,AI研究者,フィンテック実践者,倫理的銀行ジャリスト,投資家を対象に,概念的新規性,コンプライアンス機構,実践的影響を強調した。
関連論文リスト
- Targeted aspect-based emotion analysis to detect opportunities and precaution in financial Twitter messages [8.504685056067144]
同じツイートで、異なる株式市場資産の金銭的感情(肯定的、否定的な予測)を個別に識別できる新たなTABEA(Targeted Aspect-Based Emotion Analysis)システムを提案する。
自然言語処理(NLP)技術と機械学習ストリーミングアルゴリズムに基づいている。
ターゲットの感情、財務的機会、そしてTwitterの予防のために90%以上の精度を達成している。
論文 参考訳(メタデータ) (2024-03-30T16:46:25Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Navigating Surveillance Capitalism: A Critical Analysis through
philosophical perspectives in Computer Ethics [0.0]
監視資本主義は大量のユーザーデータを収集し分析する実践である。
GoogleやFacebookのようなテクノロジー企業は、ユーザーの個人情報を使ってパーソナライズされたコンテンツや広告を提供する。
監視資本主義のもう一つの例は、国家安全保障のためのデータ収集と分析に軍事技術を使用することである。
論文 参考訳(メタデータ) (2023-05-05T18:37:56Z) - Monetizing Explainable AI: A Double-edged Sword [0.0]
説明可能な人工知能(XAI)は、アルゴリズムによる意思決定のロジックに関する洞察を提供することを目的としている。
このトピックに関する多くの研究にもかかわらず、XAIの消費者向け応用は依然として稀である。
本稿では,説明プラットフォームを通じてプログラム広告とアルゴリズムによる説明を融合させる新たな収益化戦略について紹介する。
論文 参考訳(メタデータ) (2023-03-27T15:50:41Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - Explainable AI in Credit Risk Management [0.0]
機械学習(ML)に基づく信用スコアリングモデルに対して,局所解釈モデル予測説明(LIME)とSHapley Additive exPlanations(SHAP)という2つの高度な説明可能性手法を実装した。
具体的には、LIMEを使用してインスタンスをローカルとSHAPで説明し、ローカルとグローバルの両方で説明します。
SHAP値を用いて生成されたグラフを説明するために利用可能なさまざまなカーネルを使用して、結果を詳細に議論し、複数の比較シナリオを提示する。
論文 参考訳(メタデータ) (2021-03-01T12:23:20Z) - Supporting Financial Inclusion with Graph Machine Learning and Super-App
Alternative Data [63.942632088208505]
スーパーアプリは、ユーザーとコマースの相互作用についての考え方を変えました。
本稿では,スーパーアプリ内のユーザ間のインタラクションの違いが,借り手行動を予測する新たな情報源となるかを検討する。
論文 参考訳(メタデータ) (2021-02-19T15:13:06Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。