論文の概要: Violent music vs violence and music: Drill rap and violent crime in
London
- arxiv url: http://arxiv.org/abs/2004.04598v1
- Date: Thu, 9 Apr 2020 15:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 03:11:55.305758
- Title: Violent music vs violence and music: Drill rap and violent crime in
London
- Title(参考訳): 暴力音楽 vs. 暴力と音楽 - ロンドンにおけるレイプと暴力犯罪
- Authors: Bennett Kleinberg and Paul McFarlane
- Abstract要約: 我々は、音楽とギャングの暴力が結びついているという憶測を支持する証拠があるかどうか検討する。
ロンドンで警察が記録した3種類の暴力犯罪データと比較すると、ドリル音楽と実生活における暴力の間に意味のある関係は見つからない。
我々は、問題にまつわる多くのエビデンスを構築するのに役立つ新しい仕事のアイデアを提案する。
- 参考スコア(独自算出の注目度): 0.5660207256468972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The current policy of removing drill music videos from social media platforms
such as YouTube remains controversial because it risks conflating the
co-occurrence of drill rap and violence with a causal chain of the two.
Empirically, we revisit the question of whether there is evidence to support
the conjecture that drill music and gang violence are linked. We provide new
empirical insights suggesting that: i) drill music lyrics have not become more
negative over time if anything they have become more positive; ii) individual
drill artists have similar sentiment trajectories to other artists in the drill
genre, and iii) there is no meaningful relationship between drill music and
real-life violence when compared to three kinds of police-recorded violent
crime data in London. We suggest ideas for new work that can help build a
much-needed evidence base around the problem.
- Abstract(参考訳): YouTubeなどのソーシャルメディアプラットフォームからドリルミュージックビデオを削除するという現在の方針は、ドリルラップの共犯や暴力と両者の因果関係が混同されるリスクがあるため、いまだに議論の余地がある。
経験的に、ドリル音楽とギャング暴力が関連しているという推測を支持する証拠があるかどうかという問題を再考する。
そのことを示唆する新たな経験的洞察を与えます
一 ドリル音楽の歌詞がより肯定的になったときは、時間とともに否定的になることがないこと。
二 個々のドリルアーティストが、ドリルジャンルの他のアーティストと同様の感情軌道を有すること。
三 ロンドンにおける3種類の警察記録暴力犯罪データと比較して、ドリル音楽と実生活暴力との間に有意義な関係はない。
我々は、問題にまつわる多くのエビデンスを構築するのに役立つ新しい仕事のアイデアを提案する。
関連論文リスト
- MuVi: Video-to-Music Generation with Semantic Alignment and Rhythmic Synchronization [52.498942604622165]
本稿では,ビデオコンテンツに合わせた音楽を生成するためのフレームワークであるMuViについて述べる。
MuViは、特別に設計された視覚適応器を通じて映像コンテンツを分析し、文脈的および時間的に関係のある特徴を抽出する。
音声品質と時間同期の両方において, MuVi が優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T18:44:56Z) - Unsupervised Melody-Guided Lyrics Generation [84.22469652275714]
メロディと歌詞の一致したデータを学習することなく、楽しく聴ける歌詞を生成することを提案する。
メロディと歌詞間の重要なアライメントを活用し、与えられたメロディを制約にコンパイルし、生成プロセスを導く。
論文 参考訳(メタデータ) (2023-05-12T20:57:20Z) - Redefining Relationships in Music [55.478320310047785]
私たちは、AIツールが音楽文化を根本的に変えてくれると論じています。
この分野で働く人々は、音楽の実践、消費、意味に対するネガティブな影響を減らすことができる。
論文 参考訳(メタデータ) (2022-12-13T19:44:32Z) - "More Than Words": Linking Music Preferences and Moral Values Through
Lyrics [2.3204178451683264]
本研究では,歌詞にテキスト分析手法を適用し,音楽の嗜好と道徳的価値の関係について検討した。
われわれは1,386人のサイコメトリックスコアを、Facebook Page Likesから登場した好みの音楽アーティストのトップ5の歌詞に合わせる。
機械学習フレームワークは、回帰アプローチを利用して、道徳的価値を推定するための叙述的特徴の予測力を評価するように設計された。
論文 参考訳(メタデータ) (2022-09-02T16:58:52Z) - Novelty and Cultural Evolution in Modern Popular Music [0.0]
現代美術品と現代美術品を比較して、新しい工芸品を同定する。
1974年から2013年にかけて,Billboard Hot 100曲の楽曲情報検索(MIR)データと歌詞を用いて,各楽曲の聴覚特性と歌詞の新規性スコアを算出する。
論文 参考訳(メタデータ) (2022-06-15T18:25:39Z) - Detecting Violence in Video Based on Deep Features Fusion Technique [0.30458514384586394]
本研究では、2つの畳み込みニューラルネットワーク(CNN)の融合技術を用いて暴力を検出する新しい方法を提案する。
提案手法の性能は,検出精度の観点から3つの標準ベンチマークデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-04-15T12:51:20Z) - To Protect and To Serve? Analyzing Entity-Centric Framing of Police
Violence [14.27851642186004]
エンティティ中心のフレームを測定するためのNLPフレームワークを提案する。
我々は、米国の警察暴力に関するメディアの報道を理解するために、82kのニュース記事からなる新しい警察暴力コーパスフレームを使っています。
私たちの研究は、何十種類ものフレーミングデバイスを発見し、リベラルなニュースソースと保守的なニュースソースが、警察の暴力と関係する組織の両方に、重大な違いを明らかにしています。
論文 参考訳(メタデータ) (2021-09-11T17:37:21Z) - Real-Time Violence Detection Using CNN-LSTM [0.0]
暴力率は過去40年間に約57%減少した。
暴力のデモが実際に起きているかは、法律によって変わっていない。
私は、ディープラーニングを使って問題に対処するユニークなモデルと理論システムを作りました。
論文 参考訳(メタデータ) (2021-07-15T19:37:41Z) - Fragments of the Past: Curating Peer Support with Perpetrators of
Domestic Violence [88.37416552778178]
我々は,過去フラグメントの設計と展開において,6人の支援労働者と18人の加害者とともに働いた10ヶ月の研究を報告した。
私たちは、暴力から脱却した経験をデジタルで強化された成果物、すなわち「フラグメント」を作ることが、メッセージのモチベーションと仲間間のラッピングをいかに翻訳するかを共有します。
これらの知見は、挑戦的な人口を持つ将来のネットワーク設計の実践的考察の基礎となる。
論文 参考訳(メタデータ) (2021-07-09T22:57:43Z) - DeepRapper: Neural Rap Generation with Rhyme and Rhythm Modeling [102.50840749005256]
ラップ生成におけるこれまでの研究は、韻律的な歌詞に重点を置いていたが、ラップ演奏に重要なリズムビートを無視していた。
本稿では,韻律とリズムの両方をモデル化可能なトランスフォーマーベースのラプ生成システムであるDeepRapperを開発する。
論文 参考訳(メタデータ) (2021-07-05T09:01:46Z) - Dance Revolution: Long-Term Dance Generation with Music via Curriculum
Learning [55.854205371307884]
音楽条件付きダンス生成をシーケンス・ツー・シーケンスの学習問題として定式化する。
本稿では,長動き列生成における自己回帰モデルの誤り蓄積を軽減するための新しいカリキュラム学習戦略を提案する。
提案手法は,自動計測と人的評価において,既存の最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-06-11T00:08:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。