論文の概要: Analyzing Sentiment Polarity Reduction in News Presentation through
Contextual Perturbation and Large Language Models
- arxiv url: http://arxiv.org/abs/2402.02145v1
- Date: Sat, 3 Feb 2024 13:27:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 21:51:41.639997
- Title: Analyzing Sentiment Polarity Reduction in News Presentation through
Contextual Perturbation and Large Language Models
- Title(参考訳): 文脈摂動と大規模言語モデルによるニュースプレゼンテーションにおける感情極性低減の分析
- Authors: Alapan Kuila, Somnath Jena, Sudeshna Sarkar, Partha Pratim Chakrabarti
- Abstract要約: 本稿では,ニュースコンテンツにおける潜在感情の極性を減らし,この問題に対処する新たなアプローチを提案する。
我々は、中核的な意味を保ちながら文を変更するために変換制約を用いる。
実験と人体評価は、最小限の修正で感情極性を減らすために、これらの2つのモデルの有効性を実証した。
- 参考スコア(独自算出の注目度): 1.8512070255576754
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In today's media landscape, where news outlets play a pivotal role in shaping
public opinion, it is imperative to address the issue of sentiment manipulation
within news text. News writers often inject their own biases and emotional
language, which can distort the objectivity of reporting. This paper introduces
a novel approach to tackle this problem by reducing the polarity of latent
sentiments in news content. Drawing inspiration from adversarial attack-based
sentence perturbation techniques and a prompt based method using ChatGPT, we
employ transformation constraints to modify sentences while preserving their
core semantics. Using three perturbation methods: replacement, insertion, and
deletion coupled with a context-aware masked language model, we aim to maximize
the desired sentiment score for targeted news aspects through a beam search
algorithm. Our experiments and human evaluations demonstrate the effectiveness
of these two models in achieving reduced sentiment polarity with minimal
modifications while maintaining textual similarity, fluency, and grammatical
correctness. Comparative analysis confirms the competitive performance of the
adversarial attack based perturbation methods and prompt-based methods,
offering a promising solution to foster more objective news reporting and
combat emotional language bias in the media.
- Abstract(参考訳): ニュースメディアが世論形成に重要な役割を果たしている現代メディアの世界では、ニューステキストにおける感情操作の問題に対処することが不可欠である。
ニュースライターは、しばしば自身のバイアスと感情言語を注入し、報告の客観性を歪ませる。
本稿では,ニュースコンテンツにおける潜在感情の極性を減らし,この問題に対処する新たなアプローチを提案する。
対人攻撃に基づく文摂動手法とChatGPTを用いたプロンプトベース手法からインスピレーションを得て,文の変換制約を適用し,中核的な意味を保ちながら文の修正を行う。
本研究では,3つの摂動手法,すなわち置き換え,挿入,削除をコンテキスト認識型マスキング言語モデルと組み合わせることで,ビームサーチアルゴリズムを用いて,対象とするニュース側面に対する感情スコアを最大化する。
実験と人体評価は, テキストの類似性, 流布性, 文法的正しさを維持しつつ, 最小限の修正による感情極性低下を実現する上で, これら2つのモデルの有効性を示した。
比較分析は、敵攻撃に基づく摂動法とプロンプトベースの手法の競合性能を確認し、メディアにおけるより客観的なニュース報告と戦闘的感情言語バイアスを促進するための有望な解決策を提供する。
関連論文リスト
- MSynFD: Multi-hop Syntax aware Fake News Detection [27.046529059563863]
ソーシャルメディアプラットフォームは、偽ニュースを急速に拡散させ、われわれの現実社会に脅威を与えている。
既存の方法は、フェイクニュースの検出を強化するために、マルチモーダルデータまたはコンテキスト情報を使用する。
本稿では,偽ニュースの微妙なひねりに対処するための補完構文情報を含む,新しいマルチホップ構文認識型偽ニュース検出手法を提案する。
論文 参考訳(メタデータ) (2024-02-18T05:40:33Z) - Lost In Translation: Generating Adversarial Examples Robust to
Round-Trip Translation [66.33340583035374]
本研究は, ラウンドトリップ翻訳における現在のテキスト対逆攻撃の堅牢性に関する包括的研究である。
筆者らは,現在最先端のテキストベースの6つの敵攻撃が,ラウンドトリップ翻訳後の有効性を維持していないことを実証した。
本稿では,機械翻訳を逆例生成のプロセスに組み込むことにより,この問題に対する介入に基づく解決策を提案する。
論文 参考訳(メタデータ) (2023-07-24T04:29:43Z) - Conflicts, Villains, Resolutions: Towards models of Narrative Media
Framing [19.589945994234075]
我々は、物語の要素を明示的に捉えたコミュニケーション科学から、広く使われているフレーミングの概念化を再考する。
我々は、複雑なアノテーションタスクをより単純なバイナリー質問に分解する効果的なアノテーションパラダイムを適用します。
教師付きおよび半教師付きアプローチによるフレームの自動マルチラベル予測について検討する。
論文 参考訳(メタデータ) (2023-06-03T08:50:13Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Beyond Model Interpretability: On the Faithfulness and Adversarial
Robustness of Contrastive Textual Explanations [2.543865489517869]
本研究は、説明の忠実さに触発された新たな評価手法の基盤を築き、テキストの反事実を動機づけるものである。
感情分析データを用いた実験では, 両モデルとも, 対物関係の関連性は明らかでないことがわかった。
論文 参考訳(メタデータ) (2022-10-17T09:50:02Z) - A Prompt Array Keeps the Bias Away: Debiasing Vision-Language Models
with Adversarial Learning [55.96577490779591]
視覚言語モデルは社会的バイアスやステレオタイプを符号化することができる。
これらのマルチモーダル害の測定と緩和には課題がある。
バイアス尺度を調査し,画像テキスト表現にランキング指標を適用した。
論文 参考訳(メタデータ) (2022-03-22T17:59:04Z) - An Interdisciplinary Approach for the Automated Detection and
Visualization of Media Bias in News Articles [0.0]
メディアバイアスを識別するためのデータセットや手法を考案することを目指しています。
私のビジョンは、ニュース読者が偏見によるメディアカバレッジの違いを認識できるようにするシステムを開発することです。
論文 参考訳(メタデータ) (2021-12-26T10:46:32Z) - Detecting Polarized Topics in COVID-19 News Using Partisanship-aware
Contextualized Topic Embeddings [3.9761027576939405]
ニュースメディアの分極化の高まりは、熱狂的な意見の相違、論争、さらには暴力までもが非難されている。
パルチザンニュースソースから偏光トピックを自動的に検出する手法であるPartisanship-aware Contextualized Topic Embeddings (PaCTE)を提案する。
論文 参考訳(メタデータ) (2021-04-15T23:05:52Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。