論文の概要: "Impressively Scary:" Exploring User Perceptions and Reactions to Unraveling Machine Learning Models in Social Media Applications
- arxiv url: http://arxiv.org/abs/2503.03927v1
- Date: Wed, 05 Mar 2025 21:51:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:00:26.901171
- Title: "Impressively Scary:" Exploring User Perceptions and Reactions to Unraveling Machine Learning Models in Social Media Applications
- Title(参考訳): Impressively Scary: : ソーシャルメディアアプリケーションにおける機械学習モデル構築に対するユーザ認知と反応の探索
- Authors: Jack West, Bengisu Cagiltay, Shirley Zhang, Jingjie Li, Kassem Fawaz, Suman Banerjee,
- Abstract要約: ソーシャルメディア利用者の認知と行動が機械学習モデルに一度暴露されるとどのように変化するかを検討することを目的としている。
ユーザスタディ(N=21)を実施して、参加者は、モデルが出力するものと、モデルがInstagramやTikTokで使用された時期の両方に気づいていないことが分かった。
その結果,8人の被験者で長期の行動変化が観察された。
- 参考スコア(独自算出の注目度): 17.961040981236092
- License:
- Abstract: Machine learning models deployed locally on social media applications are used for features, such as face filters which read faces in-real time, and they expose sensitive attributes to the apps. However, the deployment of machine learning models, e.g., when, where, and how they are used, in social media applications is opaque to users. We aim to address this inconsistency and investigate how social media user perceptions and behaviors change once exposed to these models. We conducted user studies (N=21) and found that participants were unaware to both what the models output and when the models were used in Instagram and TikTok, two major social media platforms. In response to being exposed to the models' functionality, we observed long term behavior changes in 8 participants. Our analysis uncovers the challenges and opportunities in providing transparency for machine learning models that interact with local user data.
- Abstract(参考訳): ソーシャルメディアアプリケーションにローカルにデプロイされる機械学習モデルは、リアルタイムに顔を読み取るフェースフィルタなどの機能に使用され、アプリに機密性の高い属性を公開する。
しかし、ソーシャルメディアアプリケーションにおける機械学習モデル、例えば、いつ、どこで、どのように使用されるかは、ユーザには不透明である。
この不整合に対処し、ソーシャルメディア利用者の認識と行動がモデルに一度暴露されるとどのように変化するかを検討することを目的としている。
ユーザスタディ(N=21)を実施したところ、参加者はモデルが出力するものと、モデルがInstagramとTikTokで使用された時期の両方を知らなかったことがわかった。
その結果,8人の被験者で長期の行動変化が観察された。
我々の分析は、ローカルなユーザデータと対話する機械学習モデルに対して透明性を提供する上での課題と機会を明らかにする。
関連論文リスト
- Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - SoMeR: Multi-View User Representation Learning for Social Media [1.7949335303516192]
本稿では,ソーシャルメディアのユーザ表現学習フレームワークであるSoMeRを提案する。
SoMeRは、ユーザ投稿ストリームをタイムスタンプ付きテキスト機能のシーケンスとしてエンコードし、トランスフォーマーを使用してプロファイルデータと共にそれを埋め込み、リンク予測とコントラスト学習の目標を共同でトレーニングする。
1)類似コンテンツを同時に投稿するユーザを検出することによって、協調的な影響操作に関わる不正確なアカウントを同定し、2)異なる信念を持つユーザがより遠くへ移動する様子を定量化して、主要なイベント後のオンライン議論における偏光の増大を測定する。
論文 参考訳(メタデータ) (2024-05-02T22:26:55Z) - Social Media Use is Predictable from App Sequences: Using LSTM and Transformer Neural Networks to Model Habitual Behavior [0.11086185608421924]
本稿では,スマートフォン利用者の逐次行動の予測モデルを用いて,ソーシャルメディアの習慣を研究する新しいアプローチを提案する。
i) ソーシャルメディアの利用は内外レベルで予測可能であり, (ii) ソーシャルメディア利用の予測可能性に強い個人差があることが示される。
論文 参考訳(メタデータ) (2024-04-20T16:36:28Z) - A Picture is Worth 500 Labels: A Case Study of Demographic Disparities in Local Machine Learning Models for Instagram and TikTok [9.917627395559467]
人気の高いソーシャルメディアアプリTikTokとInstagramを分析して、画像とビデオデータからユーザーを推測する、両方のアプリの視覚モデルを明らかにする。
モバイルアプリにおける機械学習タスクのキャプチャと評価のための新しい手法を開発した。
論文 参考訳(メタデータ) (2024-03-27T17:46:14Z) - Interactive Text Generation [75.23894005664533]
我々は,対話型テキスト生成タスクを導入し,実際のユーザを巻き込むことなく,対話型テキスト生成モデルのトレーニングを可能にする。
我々は、Imitation Learningを用いてインタラクティブモデルをトレーニングし、競合する非インタラクティブな生成モデルに対する実験により、インタラクティブにトレーニングされたモデルは非インタラクティブなモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-02T01:57:17Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Sparsity-aware neural user behavior modeling in online interaction
platforms [2.4036844268502766]
ユーザ行動モデリングのための一般化可能なニューラル表現学習フレームワークを開発する。
問題設定は、トランスダクティブおよびインダクティブな学習シナリオにまたがる。
ユーザの振る舞いを反映した情報のさまざまな側面を活用して、大規模にパーソナライズされた推論を可能にする。
論文 参考訳(メタデータ) (2022-02-28T00:27:11Z) - Soft Attention: Does it Actually Help to Learn Social Interactions in
Pedestrian Trajectory Prediction? [2.180763067449862]
本研究では,歩行者の移動履歴と周辺歩行者の移動履歴を用いて,歩行者の将来経路を予測することの課題について考察する。
ディープラーニングは、歩行者の動きに対する社会的相互作用の影響をモデル化するための主要なツールとなっている。
論文 参考訳(メタデータ) (2021-06-16T17:39:35Z) - Deploying Lifelong Open-Domain Dialogue Learning [48.12600947313494]
本研究では,オープンドメインファンタジーの世界にある学習エージェントと人間プレイヤーが会話するロールプレイングゲームを構築し,展開する。
自動メトリクスとオンラインエンゲージメントスコアから,ゲーム中の人間との会話に関するモデルをトレーニングすることで,モデルを段階的に改善することを示す。
この学習は、実際のユーザとの会話に適用した場合のクラウドソースデータよりも効率的であり、収集するコストもはるかに安い。
論文 参考訳(メタデータ) (2020-08-18T17:57:26Z) - I Know Where You Are Coming From: On the Impact of Social Media Sources
on AI Model Performance [79.05613148641018]
我々は、異なるソーシャルネットワークのマルチモーダルデータから学習する際、異なる機械学習モデルの性能について検討する。
最初の実験結果から,ソーシャルネットワークの選択がパフォーマンスに影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2020-02-05T11:10:44Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。