論文の概要: Persuasion Meets AI: Ethical Considerations for the Design of Social
Engineering Countermeasures
- arxiv url: http://arxiv.org/abs/2009.12853v1
- Date: Sun, 27 Sep 2020 14:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 20:39:44.181101
- Title: Persuasion Meets AI: Ethical Considerations for the Design of Social
Engineering Countermeasures
- Title(参考訳): 説得がaiを満たす - 社会工学的対策設計のための倫理的考察
- Authors: Nicolas E. D\'iaz Ferreyra, Esma A\"imeur, Hicham Hage, Maritta Heisel
and Catherine Garc\'ia van Hoogstraten
- Abstract要約: FacebookやInstagramのようなSNSのプライバシーは、人々の自己開示決定と密接に関連している。
オンラインのプライバシー決定は、しばしば、不信任者に対して機密データを開示する義務を負わせる、急激なリスク判断に基づいている。
本稿では,nudging機構がAIベースの対策の開発にもたらす倫理的課題について詳述する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy in Social Network Sites (SNSs) like Facebook or Instagram is closely
related to people's self-disclosure decisions and their ability to foresee the
consequences of sharing personal information with large and diverse audiences.
Nonetheless, online privacy decisions are often based on spurious risk
judgements that make people liable to reveal sensitive data to untrusted
recipients and become victims of social engineering attacks. Artificial
Intelligence (AI) in combination with persuasive mechanisms like nudging is a
promising approach for promoting preventative privacy behaviour among the users
of SNSs. Nevertheless, combining behavioural interventions with high levels of
personalization can be a potential threat to people's agency and autonomy even
when applied to the design of social engineering countermeasures. This paper
elaborates on the ethical challenges that nudging mechanisms can introduce to
the development of AI-based countermeasures, particularly to those addressing
unsafe self-disclosure practices in SNSs. Overall, it endorses the elaboration
of personalized risk awareness solutions as i) an ethical approach to
counteract social engineering, and ii) as an effective means for promoting
reflective privacy decisions.
- Abstract(参考訳): FacebookやInstagramのようなソーシャルネットワークサイト(SNS)のプライバシは、人々の自己開示決定と、大規模で多様なオーディエンスと個人情報を共有する結果を予測する能力と密接に関連している。
それでも、オンラインプライバシの判断は、しばしば、人々が信頼できない受信者に機密データを開示し、ソーシャルエンジニアリング攻撃の犠牲者になる責任を負うような、散発的なリスク判断に基づいている。
ナッジのような説得メカニズムと組み合わせた人工知能(AI)は、SNS利用者の間での予防的プライバシー行動を促進するための有望なアプローチである。
それでも、行動介入と高いパーソナライゼーションを組み合わせることは、社会工学的対策の設計に適用しても、人々の機関や自治に対する潜在的な脅威となる可能性がある。
本稿では,nudging機構がAIベースの対策の開発にもたらす倫理的課題,特にSNSにおける安全でない自己開示プラクティスに対処する上での課題について詳述する。
全体としては、パーソナライズされたリスク認識ソリューションの開発を支持している。
一 社会工学に反する倫理的アプローチ、及び
二 反射的プライバシー決定を促進するための効果的な手段
関連論文リスト
- Human Decision-making is Susceptible to AI-driven Manipulation [71.20729309185124]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - Human services organizations and the responsible integration of AI: Considering ethics and contextualizing risk(s) [0.0]
著者らは、AIデプロイメントに関する倫理的懸念は、実装コンテキストや特定のユースケースによって大きく異なると主張している。
彼らは、データ感度、専門的な監視要件、クライアントの幸福に対する潜在的影響などの要因を考慮に入れた、次元的リスクアセスメントアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:21Z) - Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure [42.96087647326612]
我々は、さまざまな社会的関係やタスクシナリオにまたがるAIデリゲートのユーザの嗜好を調査するために、パイロットスタディを実施している。
次に、プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
論文 参考訳(メタデータ) (2024-09-26T08:45:15Z) - The Illusion of Anonymity: Uncovering the Impact of User Actions on Privacy in Web3 Social Ecosystems [11.501563549824466]
本稿では,Web3ソーシャルプラットフォームにおけるユーザエンゲージメントと,それに伴うプライバシー問題との相違点について検討する。
我々は,人気を模したボグスアカウントの確立を含む,製造活動の広範な現象を精査する。
我々は、社会交流の複雑なウェブをナビゲートする、より厳格なプライバシー対策と倫理的プロトコルの緊急的必要性を強調します。
論文 参考訳(メタデータ) (2024-05-22T06:26:15Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。