論文の概要: Lumen: A Machine Learning Framework to Expose Influence Cues in Text
- arxiv url: http://arxiv.org/abs/2107.10655v1
- Date: Mon, 12 Jul 2021 15:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-25 13:16:05.528455
- Title: Lumen: A Machine Learning Framework to Expose Influence Cues in Text
- Title(参考訳): Lumen: テキスト中の影響キューを出力する機械学習フレームワーク
- Authors: Hanyu Shi, Mirela Silva, Daniel Capecci, Luiz Giovanini, Lauren Czech,
Juliana Fernandes, Daniela Oliveira
- Abstract要約: フィッシングと偽情報(英: Phishing and disinformation)は、攻撃者がテキストにインフルエンス・キューを適用し、ユーザーにとってより魅力的になるような、一般的なソーシャルエンジニアリング攻撃である。
i) 説得, (ii) フレーミング, (iii) 感情, (iv) 客観性と主観性, (v) 罪悪感, (vi) 強調の使用。
- 参考スコア(独自算出の注目度): 1.1316285549716723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Phishing and disinformation are popular social engineering attacks with
attackers invariably applying influence cues in texts to make them more
appealing to users. We introduce Lumen, a learning-based framework that exposes
influence cues in text: (i) persuasion, (ii) framing, (iii) emotion, (iv)
objectivity/subjectivity, (v) guilt/blame, and (vi) use of emphasis. Lumen was
trained with a newly developed dataset of 3K texts comprised of disinformation,
phishing, hyperpartisan news, and mainstream news. Evaluation of Lumen in
comparison to other learning models showed that Lumen and LSTM presented the
best F1-micro score, but Lumen yielded better interpretability. Our results
highlight the promise of ML to expose influence cues in text, towards the goal
of application in automatic labeling tools to improve the accuracy of
human-based detection and reduce the likelihood of users falling for deceptive
online content.
- Abstract(参考訳): フィッシングと偽情報(英: phishing and disinformation)は、攻撃者がテキストに影響力のあるヒントを常に適用して、より魅力的なものにするための、人気のあるソーシャルエンジニアリング攻撃である。
i) 説得, (ii) フレーミング, (iii) 感情, (iv) 客観性と主観性, (v) 罪悪感, (vi) 強調の使用。
ルーメンは、偽情報、フィッシング、超党派ニュース、主流ニュースからなる3Kテキストのデータセットを新たに開発した。
他の学習モデルと比較して、LumenとLSTMは最良のF1-microスコアを示したが、Lumenはより良い解釈性を得た。
この結果から,人間による検出の精度向上と,誤認のあるオンラインコンテンツにユーザが陥る可能性を低減するために,自動ラベリングツールを応用することを目指して,MLがテキストに影響を及ぼす可能性を強調した。
関連論文リスト
- Vulnerability of LLMs to Vertically Aligned Text Manipulations [108.6908427615402]
大規模言語モデル(LLM)は、テキスト分類タスクの実行に非常に効果的である。
エンコーダベースのモデルのために単語を垂直に整列させるような入力形式を変更することは、テキスト分類タスクにおいてかなり精度を低下させる。
デコーダベースのLLMは、垂直フォーマットのテキスト入力と同じような脆弱性を示すか?
論文 参考訳(メタデータ) (2024-10-26T00:16:08Z) - Augment, Drop & Swap: Improving Diversity in LLM Captions for Efficient Music-Text Representation Learning [10.15720975293898]
本研究では,鍵となる設計選択が音声-テキストコントラストモデルを用いて学習した音楽-テキスト表現の品質に与える影響について検討する。
データキュレーションは、リソース制約のあるシナリオにおいて、音楽テキストのコントラストトレーニングにおいて最も重要な要素である。
トレーニングで見られるテキスト入力の多様性と記述性を向上する,Augmented View Dropout と TextSwap という2つの新しい手法を導入する。
論文 参考訳(メタデータ) (2024-09-17T19:00:21Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - When LLMs Meet Cunning Texts: A Fallacy Understanding Benchmark for Large Language Models [59.84769254832941]
本稿では,人間が理解し易いが,理解し難い文を含むFaLlacy Understanding Benchmark (FLUB)を提案する。
具体的には、FLUBが焦点を絞ったcunningテキストは、主に、実際のインターネット環境から収集されたトリッキーでユーモラスで誤解を招くテキストで構成されている。
FLUBに基づいて,複数の代表および先進LLMの性能について検討する。
論文 参考訳(メタデータ) (2024-02-16T22:12:53Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - Fake News in Sheep's Clothing: Robust Fake News Detection Against LLM-Empowered Style Attacks [60.14025705964573]
SheepDogは、ニュースの正確性を決定する際に、スタイルよりもコンテンツを優先する、スタイルに反する偽ニュース検出ツールだ。
SheepDog はこのレジリエンスを,(1) LLM を利用したニュースリフレーミング,(2) 異なるスタイルに対応する記事のカスタマイズによる学習プロセスへのスタイル多様性の注入,(2) スタイルの異なるリフレーミング間で一貫した妥当性予測を保証するスタイル非依存のトレーニング,(3) LLM からコンテンツ中心のガイドラインを抽出して偽ニュースを抽出するコンテンツ中心の属性を通じて達成する。
論文 参考訳(メタデータ) (2023-10-16T21:05:12Z) - Knowledgeable In-Context Tuning: Exploring and Exploiting Factual Knowledge for In-Context Learning [37.22349652230841]
大規模言語モデル(LLM)は、テキストベースのプロンプトとしてラベル付きトレーニング例を条件にすることで、コンテキスト内学習(ICL)を可能にする。
本稿では、3つの中核面におけるICLの性能に事実知識が不可欠であることを実証する。
In-Context Tuning (KICT) フレームワークを導入し,ICLの性能向上を図る。
論文 参考訳(メタデータ) (2023-09-26T09:06:39Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Membership Inference on Word Embedding and Beyond [17.202696286248294]
単語埋め込みは、現実的な仮定の下で、ブラックボックスのメンバシップ推論攻撃に対して脆弱であることを示す。
また、このリークは、他の2つの主要なNLPアプリケーション(分類とテキスト生成)を通して持続することを示す。
私たちの攻撃は、テキスト生成モデルに対するより安価なメンバシップ推論攻撃です。
論文 参考訳(メタデータ) (2021-06-21T19:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。