論文の概要: Persuasion Meets AI: Ethical Considerations for the Design of Social
Engineering Countermeasures
- arxiv url: http://arxiv.org/abs/2009.12853v1
- Date: Sun, 27 Sep 2020 14:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 20:39:44.181101
- Title: Persuasion Meets AI: Ethical Considerations for the Design of Social
Engineering Countermeasures
- Title(参考訳): 説得がaiを満たす - 社会工学的対策設計のための倫理的考察
- Authors: Nicolas E. D\'iaz Ferreyra, Esma A\"imeur, Hicham Hage, Maritta Heisel
and Catherine Garc\'ia van Hoogstraten
- Abstract要約: FacebookやInstagramのようなSNSのプライバシーは、人々の自己開示決定と密接に関連している。
オンラインのプライバシー決定は、しばしば、不信任者に対して機密データを開示する義務を負わせる、急激なリスク判断に基づいている。
本稿では,nudging機構がAIベースの対策の開発にもたらす倫理的課題について詳述する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy in Social Network Sites (SNSs) like Facebook or Instagram is closely
related to people's self-disclosure decisions and their ability to foresee the
consequences of sharing personal information with large and diverse audiences.
Nonetheless, online privacy decisions are often based on spurious risk
judgements that make people liable to reveal sensitive data to untrusted
recipients and become victims of social engineering attacks. Artificial
Intelligence (AI) in combination with persuasive mechanisms like nudging is a
promising approach for promoting preventative privacy behaviour among the users
of SNSs. Nevertheless, combining behavioural interventions with high levels of
personalization can be a potential threat to people's agency and autonomy even
when applied to the design of social engineering countermeasures. This paper
elaborates on the ethical challenges that nudging mechanisms can introduce to
the development of AI-based countermeasures, particularly to those addressing
unsafe self-disclosure practices in SNSs. Overall, it endorses the elaboration
of personalized risk awareness solutions as i) an ethical approach to
counteract social engineering, and ii) as an effective means for promoting
reflective privacy decisions.
- Abstract(参考訳): FacebookやInstagramのようなソーシャルネットワークサイト(SNS)のプライバシは、人々の自己開示決定と、大規模で多様なオーディエンスと個人情報を共有する結果を予測する能力と密接に関連している。
それでも、オンラインプライバシの判断は、しばしば、人々が信頼できない受信者に機密データを開示し、ソーシャルエンジニアリング攻撃の犠牲者になる責任を負うような、散発的なリスク判断に基づいている。
ナッジのような説得メカニズムと組み合わせた人工知能(AI)は、SNS利用者の間での予防的プライバシー行動を促進するための有望なアプローチである。
それでも、行動介入と高いパーソナライゼーションを組み合わせることは、社会工学的対策の設計に適用しても、人々の機関や自治に対する潜在的な脅威となる可能性がある。
本稿では,nudging機構がAIベースの対策の開発にもたらす倫理的課題,特にSNSにおける安全でない自己開示プラクティスに対処する上での課題について詳述する。
全体としては、パーソナライズされたリスク認識ソリューションの開発を支持している。
一 社会工学に反する倫理的アプローチ、及び
二 反射的プライバシー決定を促進するための効果的な手段
関連論文リスト
- A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - A Critical Take on Privacy in a Datafied Society [0.0]
私は、プライバシー擁護者が提示するオンラインのプライバシーと慣用性の欠如について、いくつかの側面を分析します。
データフィケーションが人間の行動に与える影響、オンラインプライバシの基盤における市場志向の前提、そして新たな適応戦略について論じる。
潜在的な問題となる未来を垣間見るために、EU、英国、および中国のジェネレーティブAIポリシーに関するプライバシー関連の側面に関する議論が提供されている。
論文 参考訳(メタデータ) (2023-08-03T11:45:18Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Artificial intelligence across company borders [17.27331855560747]
企業間AIは、データ開示なしで有効である。
この視点では、企業間におけるこのアプローチの使用、価値、意味について論じる。
論文 参考訳(メタデータ) (2021-06-21T11:56:41Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - The Social Contract for AI [0.0]
AIにとって、この社会的契約の期待を満たすことが重要であることを忘れてはならない。
本稿では,この新技術の採用と導入に社会内で十分な合意が得られた場合に,社会契約が生じることを考察する。
論文 参考訳(メタデータ) (2020-06-15T05:30:48Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。