論文の概要: Evaluating AI-Enabled deception vulnerability amongst Sub-Saharan-Africa migrants
- arxiv url: http://arxiv.org/abs/2603.06598v1
- Date: Sun, 15 Feb 2026 23:02:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.410677
- Title: Evaluating AI-Enabled deception vulnerability amongst Sub-Saharan-Africa migrants
- Title(参考訳): サブサハラ・アフリカ移民におけるAI-Enabled deceptionの脆弱性の評価
- Authors: Deborah Oluwasanya,
- Abstract要約: サハラ以南のアフリカ系移民のAIによる偽装に対する脆弱性を評価した。
詐欺のようなAI対応の詐欺に対する脆弱性の最も強い指標は、ターゲティングに先立って暴露されたことである。
高い検証努力の行動特性だけでなく、AIコンテンツを識別する能力への信頼は、AIが有効とする詐欺の脆弱性を下げる可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, the vulnerability of Sub-Saharan African migrants to AI-enabled deception, specifically the risk of exposure to scams targeting them, was evaluated. I hypothesized that the ability to distinguish human-generated content from AI-generated content had far-reaching implications beyond content assessment to determining vulnerability to AI-enabled deception. Data collected from a survey of 31 professionals and migrants from SSA across Europe and North America, covering themes on Demographics and Transnational Context, Core AI Literacy and Vulnerability, Mitigation and Trust, was modelled using a hybrid Structural Equation Model and Multiple Linear Regression. The results indicated that the strongest indicator of vulnerability to AI-enabled deception, such as scam, was prior exposure to targeting, as targeting has previously been noted to be, in most cases, a calculated attempt. Confidence in the ability to identify AI content as well as the behavioral characteristics of high verification effort, emerged as significant protective factors that could lower the vulnerability to AI enabled deception. Other transnational contexts such as duration spent abroad or engaging in international fund remittance were found to have a small and insignificant effect on vulnerability.
- Abstract(参考訳): 本研究では,サハラ以南のアフリカ系移民のAIによる詐欺に対する脆弱性について検討した。
私は、人間が生成したコンテンツとAIが生成したコンテンツとを区別する能力は、コンテンツアセスメントを超えて、AI対応の詐欺の脆弱性を決定することに大きく影響していると仮定した。
ヨーロッパと北米のSSAの31人の専門家と移民による調査から収集されたデータは、デモグラフィックとトランスナショナルコンテキスト、コアAIリテラシーと脆弱性、緩和と信頼に関するテーマをカバーし、ハイブリッド構造方程式モデルと多重線形回帰を用いてモデル化された。
その結果、スカムのようなAI対応の詐欺に対する脆弱性の最も強い指標はターゲティングに先立って露出していることが示唆された。
AIコンテンツと高い検証努力の行動特性を識別する能力の信頼性は、脆弱性をAIによって有効化された欺く可能性を低くする重要な保護要因として浮上した。
海外で過ごした期間や国際基金の送金など、他の国際的文脈は、脆弱性に小さく、重要でない影響を及ぼすことが判明した。
関連論文リスト
- Assessing the Case for Africa-Centric AI Safety Evaluations [0.0]
我々はアフリカ中心の深刻なAIリスクを特定するための分類法を開発した。
我々は、アフリカの文脈に対する脅威モデリング戦略を提案する。
資源制約下での評価を行うための実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2026-02-14T13:04:52Z) - Toward Risk Thresholds for AI-Enabled Cyber Threats: Enhancing Decision-Making Under Uncertainty with Bayesian Networks [0.3151064009829256]
我々は、AIサイバーリスク閾値の開発と評価のための構造化アプローチを提案する。
まず、既存の業界におけるサイバーしきい値を分析し、共通しきい値要素を同定する。
第2に,AI可能なサイバーリスクをモデル化するためのツールとしてベイズネットワークを提案する。
論文 参考訳(メタデータ) (2026-01-23T23:23:12Z) - Toward Quantitative Modeling of Cybersecurity Risks Due to AI Misuse [50.87630846876635]
我々は9つの詳細なサイバーリスクモデルを開発する。
各モデルはMITRE ATT&CKフレームワークを使用して攻撃をステップに分解する。
個々の見積もりはモンテカルロシミュレーションによって集約される。
論文 参考訳(メタデータ) (2025-12-09T17:54:17Z) - Exploring Semantic-constrained Adversarial Example with Instruction Uncertainty Reduction [51.50282796099369]
本稿では,多次元命令の不確実性低減フレームワークを開発し,意味論的に制約された逆の例を生成する。
言語誘導サンプリングプロセスの予測により、設計したResAdv-DDIMサンプルにより最適化プロセスが安定化される。
セマンティック制約付き3次元逆数例の参照フリー生成を初めて実現した。
論文 参考訳(メタデータ) (2025-10-27T04:02:52Z) - Humble AI in the real-world: the case of algorithmic hiring [9.53469974854897]
Humble AIは、懐疑論を通じてAI開発とデプロイメントに慎重さを主張する。
アルゴリズム雇用の分野における謙虚なAIの現実的なケーススタディを示す。
論文 参考訳(メタデータ) (2025-05-27T09:09:38Z) - Information Retrieval Induced Safety Degradation in AI Agents [52.15553901577888]
本研究では,検索アクセスの拡大がモデル信頼性,バイアス伝搬,有害コンテンツ生成に与える影響について検討した。
整列 LLM 上に構築された検索可能なエージェントは、検索なしでの無検閲モデルよりも安全でない振る舞いをすることが多い。
これらの発見は、検索可能でますます自律的なAIシステムの公正性と信頼性を確保するための堅牢な緩和戦略の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-05-20T11:21:40Z) - Graph of Effort: Quantifying Risk of AI Usage for Vulnerability Assessment [0.0]
非AI資産を攻撃するために使用されるAIは、攻撃的AIと呼ばれる。
高度な自動化や複雑なパターン認識など、その能力を利用するリスクは大幅に増大する可能性がある。
本稿では,攻撃的AIを敵による脆弱性攻撃に使用するために必要な労力を分析するための,直感的でフレキシブルで効果的な脅威モデリング手法であるGraph of Effortを紹介する。
論文 参考訳(メタデータ) (2025-03-20T17:52:42Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。