論文の概要: Instagram versus women of color: Why are women of color protesting Instagram's algorithmic changes?
- arxiv url: http://arxiv.org/abs/2407.17679v1
- Date: Thu, 25 Jul 2024 00:35:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 15:37:23.606849
- Title: Instagram versus women of color: Why are women of color protesting Instagram's algorithmic changes?
- Title(参考訳): Instagram対カラー女性:なぜInstagramのアルゴリズム変更に抗議しているのか?
- Authors: Ankolika De,
- Abstract要約: Instagramは、いくつかの現代の社会的闘争のために、コミュニティによって適格化されてきた。
WOC(Women of Color)は、抗議活動や情報共有、さまざまな機会を通じてお互いを支援するために使用している。
最新のアップデートでは、ユーザのネットワークからの静的メディア上の未知のアカウントからビデオ指向のコンテンツ(リール)を表示するようにレコメンデーションアルゴリズムを変更した。
反発のため、Instagramは変更をロールバックした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Instagram has been appropriated by communities for several contemporary social struggles, often translating into real world action. Likewise, women of color (WOC) have used it to protest, share information and support one another through its various affordances. However, Instagram is known to have frequent updates, and recently the updates have been more drastic. The newest update changed the recommendation algorithm such that it showed video-oriented content (reels) from unknown accounts over static media from a user's own network. Several marginalized communities, and especially WOC resisted this change and others that led to it. Due to the backlash, Instagram rolled back its changes. Drawing from past HCI work on digital platforms for marginalised communities, I propose a qualitative study informed by the open research strategy to understand why WOC are resisting these changes, and eventually provide implications for design that can help implement changes in a more inclusive manner.
- Abstract(参考訳): Instagramは、いくつかの現代の社会的闘争のためにコミュニティによって適格化され、しばしば現実世界のアクションに翻訳された。
同様に、有色人種の女性(WOC)は、抗議活動、情報共有、そして様々な余裕を通じてお互いを支え合うためにそれを使用している。
しかし、Instagramは頻繁なアップデートで知られており、最近はアップデートが劇的になった。
最新のアップデートでは、ユーザのネットワークからの静的メディア上の未知のアカウントからビデオ指向のコンテンツ(リール)を表示するようにレコメンデーションアルゴリズムを変更した。
いくつかの辺境化コミュニティ、特にWACはこの変化に抵抗し、それにつながった。
反発のため、Instagramは変更をロールバックした。
地域コミュニティのデジタルプラットフォームにおける過去のHCIの取り組みから、WOCがこのような変化に抵抗している理由を理解するためのオープンリサーチ戦略による質的研究を提案し、最終的には、より包括的に変化を実装できる設計に意味を与えます。
関連論文リスト
- English offensive text detection using CNN based Bi-GRU model [1.102674168371806]
FacebookやTwitterのようなソーシャルネットワークサイトは、ワンクリックで大量のコンテンツを共有できるプラットフォームを提供している。
これらのプラットフォームは、アップロードされたコンテンツに制限を課していない。
テキストが攻撃的であるか否かを分類する新しいBi-GRU-CNNモデルを提案する。
論文 参考訳(メタデータ) (2024-09-24T01:29:24Z) - Social Reward: Evaluating and Enhancing Generative AI through
Million-User Feedback from an Online Creative Community [63.949893724058846]
コミュニティ認識の一形態としての社会的報酬は、オンラインプラットフォームのユーザーがコンテンツに関わり、貢献する動機の強い源泉となる。
この作業はパラダイムシフトの先駆者であり、革新的な報酬モデリングフレームワークであるSocial Rewardを発表した。
私たちは、オンラインビジュアル作成と編集プラットフォームであるPicsartから、データセットのキュレーションと洗練の広範な旅に乗り出した。
論文 参考訳(メタデータ) (2024-02-15T10:56:31Z) - On the Relation Between Opinion Change and Information Consumption on
Reddit [22.387666772159974]
オンラインソーシャルメディアにおけるユーザの意見変化エピソードとその後の行動変化との関係について検討した。
意見変更を報告した人は、オンラインコミュニティの特定のサブセットへの将来の参加を変える可能性が著しく高いことがわかりました。
論文 参考訳(メタデータ) (2022-07-25T13:34:16Z) - LFW-Beautified: A Dataset of Face Images with Beautification and
Augmented Reality Filters [53.180678723280145]
いくつかの操作を含む顔画像のデータベースにコントリビュートする。
画像強調フィルター(コントラストや稲妻を主に修正する)や、動物の鼻や眼鏡などのアイテムを組み込んだ拡張現実フィルターが含まれている。
各データセットには、64×64の4,324枚の画像があり、合計34,592枚の画像がある。
論文 参考訳(メタデータ) (2022-03-11T17:05:10Z) - Analyzing Behavioral Changes of Twitter Users After Exposure to
Misinformation [1.8251012479962594]
一般のTwitterユーザーが誤報に晒された後に行動を変えたかどうかを理解することを目的としている。
露出したユーザーの行動前後を比較して、投稿したツイートの頻度に大きな変化があったかどうかを判断する。
また,潜在的に影響を受けやすい2つの特定のユーザグループ,マルチ露光と極端な変更グループの特徴についても検討した。
論文 参考訳(メタデータ) (2021-11-01T04:48:07Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - hBert + BiasCorp -- Fighting Racism on the Web [58.768804813646334]
これはfox news、breitbartnews、youtubeの3つの特定のソースから139,090のコメントとニュースを含むデータセットです。
本研究では、hBERT を新しい Hopfield Layer を用いて、予め訓練された BERT モデルの特定の層を修正する。
開発者がwebアプリケーションでトレーニングされたモデルを利用できるようにするため、javascriptライブラリとchrome拡張アプリケーションもリリースしています。
論文 参考訳(メタデータ) (2021-04-06T02:17:20Z) - Demographic Representation and Collective Storytelling in the Me Too
Twitter Hashtag Activism Movement [17.672730162091526]
Twitterの#ムーブメントは、セクハラや暴力の広がりに注意を向けている。
性別と人種/民族間の会話をオンラインで調べる。
白人女性が投稿したツイートは、他の人口統計と比較すると、このムーブメントで過剰に表現されていた。
論文 参考訳(メタデータ) (2020-10-13T15:25:33Z) - Breaking the Communities: Characterizing community changing users using
text mining and graph machine learning on Twitter [0.0]
自然言語処理技術とグラフ機械学習アルゴリズムを用いて,Twitter上でコミュニティを壊すユーザを調査した。
我々は150万人のユーザーから900万のTwitterメッセージを収集し、リツイートネットワークを構築した。
コミュニティブレーカー」を検出するソーシャルメディアユーザ分類のための機械学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-24T23:44:51Z) - Political audience diversity and news reliability in algorithmic ranking [54.23273310155137]
本稿では,ウェブサイトのオーディエンスの政治的多様性を質の指標として活用することを提案する。
ドメインの専門家によるニュースソースの信頼性評価と6,890人の米国市民の多様なサンプルによるWebブラウジングデータを用いて、より極端な、政治的に多様性の低いWebサイトが、ジャーナリストの基準を低くしていることを示す。
論文 参考訳(メタデータ) (2020-07-16T02:13:55Z) - Recognizing Instagram Filtered Images with Feature De-stylization [81.38905784617089]
本稿では,Instagramのフィルターによって,事前学習モデルがどのような影響を受けているかについて検討する。
画像のグローバルな外観を変えるだけの単純な構造保存フィルタは、畳み込み特徴空間に大きな違いをもたらす可能性が示唆された。
我々は,特徴マップのスケーリングとシフトに使用されるパラメータを予測し,フィルタによって引き起こされる変化を“無視”する,軽量なデスティル化モジュールを導入する。
論文 参考訳(メタデータ) (2019-12-30T16:48:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。