論文の概要: Dead or Murdered? Predicting Responsibility Perception in Femicide News
Reports
- arxiv url: http://arxiv.org/abs/2209.12030v1
- Date: Sat, 24 Sep 2022 15:14:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:38:13.148426
- Title: Dead or Murdered? Predicting Responsibility Perception in Femicide News
Reports
- Title(参考訳): 死者か殺人か?
フェミサイドニュースレポートにおける責任感の予測
- Authors: Gosse Minnema, Sara Gemelli, Chiara Zanchi, Tommaso Caselli and
Malvina Nissim
- Abstract要約: 異なる言語的選択が、責任に対する異なる認識を引き起こすことを示す。
この研究は、異なるパースペクティブ化の結果に対する認識を高めるための中核的な手段となる。
- 参考スコア(独自算出の注目度): 10.189255026322996
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Different linguistic expressions can conceptualize the same event from
different viewpoints by emphasizing certain participants over others. Here, we
investigate a case where this has social consequences: how do linguistic
expressions of gender-based violence (GBV) influence who we perceive as
responsible? We build on previous psycholinguistic research in this area and
conduct a large-scale perception survey of GBV descriptions automatically
extracted from a corpus of Italian newspapers. We then train regression models
that predict the salience of GBV participants with respect to different
dimensions of perceived responsibility. Our best model (fine-tuned BERT) shows
solid overall performance, with large differences between dimensions and
participants: salient _focus_ is more predictable than salient _blame_, and
perpetrators' salience is more predictable than victims' salience. Experiments
with ridge regression models using different representations show that features
based on linguistic theory similarly to word-based features. Overall, we show
that different linguistic choices do trigger different perceptions of
responsibility, and that such perceptions can be modelled automatically. This
work can be a core instrument to raise awareness of the consequences of
different perspectivizations in the general public and in news producers alike.
- Abstract(参考訳): 異なる言語表現は、異なる視点から同じ出来事を概念化することができる。
性別に基づく暴力(GBV)の言語表現は、私たちが責任を負っていると認識する人にどのように影響するのか。
我々は,この領域における過去の心理言語学的研究に基づいて,イタリアの新聞社から自動抽出されたGBV記述を大規模に認識調査した。
次に、責任感の異なる次元に対してGBV参加者のサリエンスを予測する回帰モデルを訓練する。
我々の最良モデル(微調整BERT)は、寸法と参加者の相違が大きいが、正解_focus_は正解_blame_より予測可能であり、加害者の正解は被害者の正解よりも予測可能である。
異なる表現を用いたリッジ回帰モデルを用いた実験は、単語に基づく特徴と同様に言語理論に基づく特徴を示す。
全体として、異なる言語的選択が責任に対する異なる認識を引き起こし、そのような認識を自動でモデル化できることが示される。
この研究は、一般大衆やニュースプロデューサーなどにおいて、様々なパースペクティブ化の結果に対する意識を高めるための中核的な手段となる。
関連論文リスト
- Do GPT Language Models Suffer From Split Personality Disorder? The Advent Of Substrate-Free Psychometrics [1.1172147007388977]
我々は,9言語で同一のパーソナリティ質問票を用いたアート言語モデルの現状について述べる。
本研究は,言語間不安定性と言語内不安定性の両方を示唆し,現在の言語モデルが一貫した中核的性格を発達しないことを示す。
これは、これらの基礎モデルに基づく人工知能システムの安全でない振る舞いにつながる可能性がある。
論文 参考訳(メタデータ) (2024-08-14T08:53:00Z) - The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Responsibility Perspective Transfer for Italian Femicide News [12.36855981691359]
同じ現実世界の出来事を言語的に表現する方法は、何が起きたかの異なる認識につながる可能性がある。
これまでの研究では、性別に基づく暴力(GBV)の異なる記述が、暴力の責任を誰が負うかという読者の認識に影響を与えることが示されている。
本稿では,GBV記述を自動的に書き換える新たなタスクを紹介し,加害者に対する責任の認識レベルを変更する方法を提案する。
論文 参考訳(メタデータ) (2023-06-01T08:27:00Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Do Large Language Models Show Decision Heuristics Similar to Humans? A
Case Study Using GPT-3.5 [0.0]
GPT-3.5は、ChatGPTと呼ばれる会話エージェントをサポートするLLMの例である。
本研究では,ChatGPTがバイアスを示すか,その他の決定効果を示すかを決定するために,一連の新しいプロンプトを用いた。
また、同じプロンプトをヒトでもテストしました。
論文 参考訳(メタデータ) (2023-05-08T01:02:52Z) - Large language models predict human sensory judgments across six
modalities [12.914521751805658]
我々は、現在最先端の大規模言語モデルが、知覚世界を言語から回復する問題に対する新たな洞察を解き放つことができることを示す。
我々は、6つの精神物理学的データセットにわたるGPTモデルからペアワイズ類似性判定を導出する。
これらの判断は, 色輪やピッチスパイラルなどのよく知られた表現を復元し, 全領域にわたる人的データと有意な相関関係を示す。
論文 参考訳(メタデータ) (2023-02-02T18:32:46Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Do self-supervised speech models develop human-like perception biases? [11.646802225841153]
本稿では,3種類の最先端自己教師型モデル(wav2vec 2.0, HuBERT, CPC)の表現空間について検討する。
CPCモデルは母国語の影響が小さいことを示すが、wav2vec 2.0とHuBERTは言語固有のものではない普遍的な音声認識空間を発達させている。
教師付き電話認識装置の予測との比較では、教師付き3つのモデルが比較的きめ細かい知覚現象を捉えているのに対し、教師付きモデルは聞き手の母国語が知覚に与える影響を捉えるのに優れていることが示唆されている。
論文 参考訳(メタデータ) (2022-05-31T14:21:40Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。