論文の概要: Lumen: A Machine Learning Framework to Expose Influence Cues in Text
- arxiv url: http://arxiv.org/abs/2107.10655v1
- Date: Mon, 12 Jul 2021 15:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-25 13:16:05.528455
- Title: Lumen: A Machine Learning Framework to Expose Influence Cues in Text
- Title(参考訳): Lumen: テキスト中の影響キューを出力する機械学習フレームワーク
- Authors: Hanyu Shi, Mirela Silva, Daniel Capecci, Luiz Giovanini, Lauren Czech,
Juliana Fernandes, Daniela Oliveira
- Abstract要約: フィッシングと偽情報(英: Phishing and disinformation)は、攻撃者がテキストにインフルエンス・キューを適用し、ユーザーにとってより魅力的になるような、一般的なソーシャルエンジニアリング攻撃である。
i) 説得, (ii) フレーミング, (iii) 感情, (iv) 客観性と主観性, (v) 罪悪感, (vi) 強調の使用。
- 参考スコア(独自算出の注目度): 1.1316285549716723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Phishing and disinformation are popular social engineering attacks with
attackers invariably applying influence cues in texts to make them more
appealing to users. We introduce Lumen, a learning-based framework that exposes
influence cues in text: (i) persuasion, (ii) framing, (iii) emotion, (iv)
objectivity/subjectivity, (v) guilt/blame, and (vi) use of emphasis. Lumen was
trained with a newly developed dataset of 3K texts comprised of disinformation,
phishing, hyperpartisan news, and mainstream news. Evaluation of Lumen in
comparison to other learning models showed that Lumen and LSTM presented the
best F1-micro score, but Lumen yielded better interpretability. Our results
highlight the promise of ML to expose influence cues in text, towards the goal
of application in automatic labeling tools to improve the accuracy of
human-based detection and reduce the likelihood of users falling for deceptive
online content.
- Abstract(参考訳): フィッシングと偽情報(英: phishing and disinformation)は、攻撃者がテキストに影響力のあるヒントを常に適用して、より魅力的なものにするための、人気のあるソーシャルエンジニアリング攻撃である。
i) 説得, (ii) フレーミング, (iii) 感情, (iv) 客観性と主観性, (v) 罪悪感, (vi) 強調の使用。
ルーメンは、偽情報、フィッシング、超党派ニュース、主流ニュースからなる3Kテキストのデータセットを新たに開発した。
他の学習モデルと比較して、LumenとLSTMは最良のF1-microスコアを示したが、Lumenはより良い解釈性を得た。
この結果から,人間による検出の精度向上と,誤認のあるオンラインコンテンツにユーザが陥る可能性を低減するために,自動ラベリングツールを応用することを目指して,MLがテキストに影響を及ぼす可能性を強調した。
関連論文リスト
- KnowTuning: Knowledge-aware Fine-tuning for Large Language Models [86.72825837235344]
大規模言語モデル(LLM)の知識認識を明確かつ暗黙的に改善する知識認識ファインタニング(KnowTuning)手法を提案する。
我々は、LLMを訓練し、答えにおける知識の3倍を明示的に識別するために、明示的な知識認識生成ステージを考案する。
また,LLMを学習し,信頼できない知識と信頼できない知識を暗黙的に区別するために,暗黙的な知識認識比較ステージを提案する。
論文 参考訳(メタデータ) (2024-02-17T02:54:32Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - Improving Factual Consistency of Text Summarization by Adversarially
Decoupling Comprehension and Embellishment Abilities of LLMs [67.56087611675606]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
LLM(DECENT)の能力を阻害する逆デカップリング法を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z) - Fake News in Sheep's Clothing: Robust Fake News Detection Against
LLM-Empowered Style Attacks [44.17045754539121]
SheepDogは、ニュース作成スタイルに頑健な、スタイルに依存しない偽ニュース検出ツールである。
SheepDog はこの適応性を LLM を利用したニュースリフレーミングによって実現している。
SheepDogは、競争ベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-10-16T21:05:12Z) - Boosting In-Context Learning with Factual Knowledge [39.93507764191706]
In-Context Learning (ICL) over Large Language Model (LLMs) は、いくつかのトレーニング例を条件に、これまで見つからなかったタスクを解決することを目的としている。
本稿では、3つの中核面におけるICLの性能に事実知識が不可欠であることを実証する。
In-Context Tuning (KICT) フレームワークを導入し,ICLの性能向上を図る。
論文 参考訳(メタデータ) (2023-09-26T09:06:39Z) - Improving Textless Spoken Language Understanding with Discrete Units as
Intermediate Target [58.59044226658916]
Spoken Language Understanding (SLU) は、音声音声から意味情報を抽出することを目的としたタスクである。
本研究では,テキストレスSLUの性能向上のための中間ガイダンスとして離散単位を用いることを提案する。
論文 参考訳(メタデータ) (2023-05-29T14:00:24Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Intent Classification Using Pre-Trained Embeddings For Low Resource
Languages [67.40810139354028]
言語固有の音声認識に依存しない音声理解システムを構築することは、言語処理において重要でない問題である。
本稿では,事前学習した音響モデルを用いて,低資源シナリオにおける音声言語理解を実現するための比較研究を提案する。
私たちは、ハイ、ミディアム、低リソースシナリオをシミュレートするために、それぞれ異なるデータサイズを持つ英語、Sinhala、Tamilの3つの異なる言語で実験を行います。
論文 参考訳(メタデータ) (2021-10-18T13:06:59Z) - Membership Inference on Word Embedding and Beyond [17.202696286248294]
単語埋め込みは、現実的な仮定の下で、ブラックボックスのメンバシップ推論攻撃に対して脆弱であることを示す。
また、このリークは、他の2つの主要なNLPアプリケーション(分類とテキスト生成)を通して持続することを示す。
私たちの攻撃は、テキスト生成モデルに対するより安価なメンバシップ推論攻撃です。
論文 参考訳(メタデータ) (2021-06-21T19:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。