論文の概要: Modeling Subjective Assessments of Guilt in Newspaper Crime Narratives
- arxiv url: http://arxiv.org/abs/2006.09589v2
- Date: Wed, 14 Oct 2020 22:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 20:44:04.996447
- Title: Modeling Subjective Assessments of Guilt in Newspaper Crime Narratives
- Title(参考訳): 新聞犯罪物語におけるギルトの主観評価のモデル化
- Authors: Elisa Kreiss, Zijian Wang, Christopher Potts
- Abstract要約: SuspectGuiltは、アメリカ合衆国における英語新聞の注釈付き犯罪記事のコーパスである。
SuspectGuiltでは、アノテーターは短い犯罪記事を読み、主要な容疑者の有罪に関するテキストレベルの評価を提供した。
我々はSuspectGuiltを用いて予測モデルを訓練し、評価し、これらのモデルがジャンル事前学習と共同指導の恩恵を受けることを示す。
- 参考スコア(独自算出の注目度): 9.589175887215585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Crime reporting is a prevalent form of journalism with the power to shape
public perceptions and social policies. How does the language of these reports
act on readers? We seek to address this question with the SuspectGuilt Corpus
of annotated crime stories from English-language newspapers in the U.S. For
SuspectGuilt, annotators read short crime articles and provided text-level
ratings concerning the guilt of the main suspect as well as span-level
annotations indicating which parts of the story they felt most influenced their
ratings. SuspectGuilt thus provides a rich picture of how linguistic choices
affect subjective guilt judgments. In addition, we use SuspectGuilt to train
and assess predictive models, and show that these models benefit from genre
pretraining and joint supervision from the text-level ratings and span-level
annotations. Such models might be used as tools for understanding the societal
effects of crime reporting.
- Abstract(参考訳): 犯罪報告は、公的な認識と社会政策を形成する力を持つジャーナリズムの一般的な形態である。
これらのレポートの言語は読者にどのように作用するのか?
我々は、米国の英語新聞の注釈付き犯罪記事のSuspectGuilt Corpusでこの問題に対処しようとしている。
SuspectGuiltでは、アノテーターは短い犯罪記事を読み、主要な容疑者の罪悪感に関するテキストレベルの評価と、その記事のどの部分が彼らの評価に最も影響を与えたかを示すスパンレベルの注釈を提供した。
したがって、SuspectGuiltは、言語的選択が主観的罪悪感の判断にどのように影響するかをリッチな図示を提供する。
さらに,SuspectGuiltを用いて予測モデルの学習と評価を行い,テキストレベルの評価とスパンレベルのアノテーションからジャンル事前学習と共同指導の恩恵を受けることを示す。
このようなモデルは、犯罪報告の社会効果を理解するためのツールとして使われるかもしれない。
関連論文リスト
- "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Garbage in, garbage out: Zero-shot detection of crime using Large
Language Models [1.113911383207731]
ビデオが(手動で)高品質なテキスト記述に変換されると、大きな言語モデルが犯罪を検出し、分類することができることを示す。
既存のビデオ・テキスト・アプローチでは、推論をサポートするのに十分な品質の映像記述を生成できない。
論文 参考訳(メタデータ) (2023-07-04T01:29:15Z) - Using Natural Language Explanations to Rescale Human Judgments [81.66697572357477]
大規模言語モデル(LLM)を用いて順序付けアノテーションと説明を再スケールする手法を提案する。
我々は、アノテータのLikert評価とそれに対応する説明をLLMに入力し、スコア付けルーリックに固定された数値スコアを生成する。
提案手法は,合意に影響を及ぼさずに生の判断を再スケールし,そのスコアを同一のスコア付けルーリックに接する人間の判断に近づける。
論文 参考訳(メタデータ) (2023-05-24T06:19:14Z) - If it Bleeds, it Leads: A Computational Approach to Covering Crime in
Los Angeles [79.4098551457605]
本稿では,犯罪に関する古典的ニュース記事から原典型的報道形態を学習し,その構造を学習することで,個々の犯罪を網羅するシステムを提案する。
私たちの研究が、これらのコンポーネントを併用して犯罪を報道するニュース記事の骨格を形成するシステムに繋がることを期待しています。
論文 参考訳(メタデータ) (2022-06-14T19:06:13Z) - American Hate Crime Trends Prediction with Event Extraction [0.0]
FBIのUniform Crime Reporting(UCR)プログラムは、ヘイトクライムデータを収集し、統計レポートを毎年リリースしている。
近年の研究では、ソーシャルメディアにおけるヘイトスピーチの検出や、確認された犯罪の影響に関する実証的研究を中心に研究されている。
本稿は、まずテキストマイニング技術を用いて、ニューヨーク・タイムズのニュースからヘイトクライムイベントを抽出し、その結果を用いて、アメリカの全国レベルのヘイトクライムおよび州レベルのヘイトクライムトレンドを予測する枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-09T04:30:20Z) - The effect of differential victim crime reporting on predictive policing
systems [84.86615754515252]
本研究では, 被害者の犯罪報告率の違いが, 共通犯罪ホットスポット予測モデルにおいて, 結果の相違をもたらすことを示す。
以上の結果から, 犯罪報告率の差は, 高犯罪から低犯罪へ, 高犯罪・中犯罪・高報道へ, 予測ホットスポットの移動につながる可能性が示唆された。
論文 参考訳(メタデータ) (2021-01-30T01:57:22Z) - Results of a Single Blind Literary Taste Test with Short Anonymized
Novel Fragments [4.695687634290403]
文学的品質の認識が、文章本質と社会的要因からどの程度引き起こされるかは、明らかな疑問である。
オランダ語小説の文体的特徴が文学的評価に及ぼす影響を評価するためのパイロット研究の結果を報告する。
調査評価と調査評価の相関は中程度から強いが, 予測は調査評価に近づいた。
論文 参考訳(メタデータ) (2020-11-03T11:10:17Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z) - Examining Racial Bias in an Online Abuse Corpus with Structural Topic
Modeling [0.30458514384586405]
我々は、ソーシャルメディア投稿における人種的偏見を調べるために、構造的トピックモデリングを用いる。
我々は、アフリカ系アメリカ人の英語で書かれたツイートの予測確率を示す追加機能を追加することにより、乱用言語データセットを増強する。
論文 参考訳(メタデータ) (2020-05-26T21:02:43Z) - Multilingual Twitter Corpus and Baselines for Evaluating Demographic
Bias in Hate Speech Recognition [46.57105755981092]
ヘイトスピーチ検出のための多言語Twitterコーパスを公開している。
コーパスは英語、イタリア語、ポーランド語、ポルトガル語、スペイン語の5つの言語をカバーしている。
我々は、クラウドソーシングプラットフォームを用いて、推定された人口統計ラベルを評価した。
論文 参考訳(メタデータ) (2020-02-24T16:45:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。