論文の概要: Meet Malexa, Alexa's Malicious Twin: Malware-Induced Misperception
Through Intelligent Voice Assistants
- arxiv url: http://arxiv.org/abs/2002.03466v1
- Date: Sun, 9 Feb 2020 22:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-04 03:48:52.874745
- Title: Meet Malexa, Alexa's Malicious Twin: Malware-Induced Misperception
Through Intelligent Voice Assistants
- Title(参考訳): alexaの悪質な双子、malexa: インテリジェントな音声アシスタントによるマルウェアによる誤認識
- Authors: Filipo Sharevski, Paige Treebridge, Peter Jachim, Audrey Li, Adam
Babin, Jessica Westbrook
- Abstract要約: Malexaはインテリジェントな音声アシスタントで、サードパーティ製スキルでユーザーにニュースブリーフィングを提供する。
Malexaは、Alexaが提供した当初のニュースよりも、政府の反応を偶発的または寛大に聞こえるようにするための規制ブリーフィングをリワードした。
結果は、マレキサと対話したユーザーは、政府が労働者に親しみやすく、大企業に好意的でないと認識したことを示している。
- 参考スコア(独自算出の注目度): 7.470506991479105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper reports the findings of a study where users (N=220) interacted
with Malexa, Alexa's malicious twin. Malexa is an intelligent voice assistant
with a simple and seemingly harmless third-party skill that delivers news
briefings to users. The twist, however, is that Malexa covertly rewords these
briefings to intentionally introduce misperception about the reported events.
This covert rewording is referred to as a Malware-Induced Misperception (MIM)
attack. It differs from squatting or invocation hijacking attacks in that it is
focused on manipulating the "content" delivered through a third-party skill
instead of the skill's "invocation logic." Malexa, in the study, reworded
regulatory briefings to make a government response sound more accidental or
lenient than the original news delivered by Alexa. The results show that users
who interacted with Malexa perceived that the government was less friendly to
working people and more in favor of big businesses. The results also show that
Malexa is capable of inducing misperceptions regardless of the user's gender,
political ideology or frequency of interaction with intelligent voice
assistants. We discuss the implications in the context of using Malexa as a
covert "influencer" in people's living or working environments.
- Abstract(参考訳): 本稿は,Alexaの悪意ある双子であるMalexaとユーザ(N=220)が対話する研究の結果を報告する。
Malexaはインテリジェントな音声アシスタントで、シンプルで一見無害なサードパーティ製スキルで、ユーザーにニュースブリーフィングを提供する。
しかしながら、malexaはこれらのブリーフィングを隠して、報告されたイベントに対する誤解を意図的に導入している。
この隠蔽リワードは、Malware-induced Misperception (MIM)攻撃と呼ばれる。
スクワットやハイジャック攻撃とは違い、スキルの"呼び出しロジック"ではなく、サードパーティのスキルを通じて提供される"コンテンツ"を操作することに焦点を当てている。
この研究でMalexaは、Alexaが提供した最初のニュースよりも、政府の反応をより事故的または寛大に聞こえるようにするための規制ブリーフィングをリワードした。
その結果、malexaと対話したユーザーは、政府は労働者に対する親しみが低く、大企業に有利だと感じていた。
また、マレキサは、ユーザの性別、政治的イデオロギー、知的音声アシスタントとの対話頻度に関係なく、誤認識を誘発できることを示した。
生活環境や作業環境において,マレキサを隠れた「インフルエンサー」として利用することの意味について論じる。
関連論文リスト
- Tokenization Matters: Navigating Data-Scarce Tokenization for Gender Inclusive Language Technologies [75.85462924188076]
ジェンダー非包括的NLP研究は、ジェンダーバイナリ中心大言語モデル(LLM)の有害な制限を文書化している。
誤認識はByte-Pair(BPE)トークン化によって大きく影響されている。
本研究では,(1)代名詞の代名詞化パリティ,(2)代名詞間の一貫した代名詞化を強制する手法,および(2)既存のLLM代名詞の知識を活用して新代名詞の習熟度を向上させる手法を提案する。
論文 参考訳(メタデータ) (2023-12-19T01:28:46Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - SkillFence: A Systems Approach to Practically Mitigating Voice-Based
Confusion Attacks [9.203566746598439]
最近の研究によると、Amazon AlexaやGoogle Homeのような商用システムは、音声による混乱攻撃に弱い。
この種の攻撃に対するシステム指向の防御を提案し、Amazon Alexaの機能を実証する。
SkilIFenceは、既存の音声アシスタントユーザーがインストールできるブラウザ拡張機能で、コマンドに応答して適切なスキルのみを実行することを保証します。
論文 参考訳(メタデータ) (2022-12-16T22:22:04Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - "Alexa, what do you do for fun?" Characterizing playful requests with
virtual assistants [68.48043257125678]
Alexaからの実際のトラフィックを分析することで、ユーモアの理論に根ざした遊び心のあるリクエストの分類を紹介します。
我々の予想では、このような発話を理解することで仮想アシスタントのユーザエクスペリエンスが向上する。
論文 参考訳(メタデータ) (2021-05-12T10:48:00Z) - "Hey Alexa, What do You Know About the COVID-19 Vaccine?" --
(Mis)perceptions of Mass Immunization Among Voice Assistant Users [10.667165962654996]
ソーシャルメディアとは異なり、Amazon Alexaは未検証コンテンツにソフトモデレーションを適用しない。
サードパーティの悪質なスキルは、情報利用者の認識精度を低下させる可能性がある。
我々は、誤解を誘発する、あるいは完全に新型コロナウイルスの誤報による悪意のある第三者のスキルに対するソフトモデレーションの解決策について議論する。
論文 参考訳(メタデータ) (2021-05-06T15:26:48Z) - Two Truths and a Lie: Exploring Soft Moderation of COVID-19
Misinformation with Amazon Alexa [6.421670116083633]
われわれは、Twitterが新型コロナウイルス(COVID-19)の誤報コンテンツに適用したソフトモデレーションを、警告カバーと警告タグの両方で模倣した。
テキストから音声に変換しても、音声のバック警告カバーは意図通りに動作しない可能性があることがわかった。
音声アシスタントのソフトモデレーション適応について検討し、新型コロナウイルスの誤報を抑えることを目的とした効果について考察した。
論文 参考訳(メタデータ) (2021-04-01T22:37:34Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Text-mining forma mentis networks reconstruct public perception of the
STEM gender gap in social media [0.0]
Textual Forma Mentis Network (TFMN) は、マインドセットの構造を抽出し、表現し、理解するために導入されたガラスボックスである。
TFMNは、近年の研究によって歪んだ考え方と強く結びついている科学における男女差のケーススタディに適用された。
論文 参考訳(メタデータ) (2020-03-18T13:39:23Z) - Beyond Trolling: Malware-Induced Misperception Attacks on Polarized
Facebook Discourse [7.470506991479105]
本稿では,ユーザが真正なコンテンツをどう認識するかを操作することによって,ソーシャルメディアの言論を喚起し,サイレンシングする代替手法を提案する。
マン・イン・ザ・ミドル(Man-in-the-middle)というマルウェアは、真正なソーシャルメディア投稿とコメントの言語コンテンツを隠蔽的に再構成する。
論文 参考訳(メタデータ) (2020-02-10T15:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。