論文の概要: User to Video: A Model for Spammer Detection Inspired by Video Classification Technology
- arxiv url: http://arxiv.org/abs/2510.06233v1
- Date: Thu, 02 Oct 2025 03:05:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.039951
- Title: User to Video: A Model for Spammer Detection Inspired by Video Classification Technology
- Title(参考訳): ビデオへのユーザ: ビデオ分類技術に触発されたスパマー検出モデル
- Authors: Haoyang Zhang, Zhou Yang, Yucai Pang,
- Abstract要約: UVSDと呼ばれるユーザビデオ化に基づくスパマー検出モデルを提案する。
ユーザの姿勢の逆挙動を考慮すると、ユーザは画素と見なされ、その姿勢は画素のRGBとして定量化される。
公開データセット(WEIBOとTWITTER)を使用した実験は、最先端の手法よりもUVSDモデルの利点を示している。
- 参考スコア(独自算出の注目度): 6.792591261290128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article is inspired by video classification technology. If the user behavior subspace is viewed as a frame image, consecutive frame images are viewed as a video. Following this novel idea, a model for spammer detection based on user videoization, called UVSD, is proposed. Firstly, a user2piexl algorithm for user pixelization is proposed. Considering the adversarial behavior of user stances, the user is viewed as a pixel, and the stance is quantified as the pixel's RGB. Secondly, a behavior2image algorithm is proposed for transforming user behavior subspace into frame images. Low-rank dense vectorization of subspace user relations is performed using representation learning, while cutting and diffusion algorithms are introduced to complete the frame imageization. Finally, user behavior videos are constructed based on temporal features. Subsequently, a video classification algorithm is combined to identify the spammers. Experiments using publicly available datasets, i.e., WEIBO and TWITTER, show an advantage of the UVSD model over state-of-the-art methods.
- Abstract(参考訳): この記事はビデオ分類技術に触発されている。
ユーザ行動サブスペースをフレームイメージとみなす場合、連続したフレームイメージをビデオとみなす。
このアイデアに従えば,UVSDと呼ばれるユーザビデオ化に基づくスパマー検出モデルが提案される。
まず,ユーザ画素化のためのuser2piexlアルゴリズムを提案する。
ユーザの姿勢の逆挙動を考慮すると、ユーザは画素と見なされ、その姿勢は画素のRGBとして定量化される。
次に,ユーザ行動サブスペースをフレーム画像に変換するための振舞い2次元アルゴリズムを提案する。
サブスペースユーザ関係の低ランク密度ベクトル化を表現学習を用いて行い、カットと拡散アルゴリズムを導入してフレーム画像化を完了させる。
最後に、ユーザの行動ビデオは時間的特徴に基づいて構築される。
その後、ビデオ分類アルゴリズムを組み合わせてスパマーを識別する。
公開データセット(WEIBOとTWITTER)を使用した実験は、最先端の手法よりもUVSDモデルの利点を示している。
関連論文リスト
- SITAR: Semi-supervised Image Transformer for Action Recognition [20.609596080624662]
本稿では,少数のラベル付きビデオを利用する半教師付き環境での映像行動認識について述べる。
我々は、ラベルなしサンプルの膨大なプールを利用して、エンコードされたスーパーイメージに対して対照的な学習を行う。
本手法は,従来の半教師あり行動認識手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-04T17:49:54Z) - SIGMA:Sinkhorn-Guided Masked Video Modeling [69.31715194419091]
SIGMA (Sinkhorn-guided Masked Video Modelling) は、新しいビデオ事前学習法である。
時空管の特徴を,限られた数の学習可能なクラスタに均等に分散する。
10個のデータセットによる実験結果から,より高性能で時間的,堅牢な映像表現を学習する上で,SIGMAの有効性が検証された。
論文 参考訳(メタデータ) (2024-07-22T08:04:09Z) - SoMeR: Multi-View User Representation Learning for Social Media [1.7949335303516192]
ソーシャルメディアのユーザ表現学習は、低次元ベクトル表現におけるユーザの好み、興味、振る舞いを捉えることを目的としている。
本稿では,時間的活動,テキストの内容,プロファイル情報,ネットワークインタラクションを組み込んで総合的なユーザ肖像画を学習するフレームワークであるSoMeRを提案する。
1) 情報操作ドライバアカウントの特定,2) 主要なイベント後のオンライン偏光の測定,3) Reddit のヘイトコミュニティにおける将来のユーザ参加予測の3つのアプリケーションを通じて,SoMeR の汎用性を実証した。
論文 参考訳(メタデータ) (2024-05-02T22:26:55Z) - Online Unsupervised Video Object Segmentation via Contrastive Motion
Clustering [27.265597448266988]
オンライン教師なしビデオオブジェクトセグメンテーション(UVOS)は、以前のフレームを入力として使用し、さらに手動のアノテーションを使わずに、一次オブジェクトをストリーミングビデオから自動的に分離する。
主要な課題は、モデルに未来へのアクセスがなく、歴史のみに頼らなければならないこと、すなわち、セグメント化マスクがキャプチャされた直後に現在のフレームから予測されることである。
本研究では、オンラインUVOSにおいて、視覚的要素が同一であれば群として認識されるという共通の運命原理を利用して、光学的フローを入力として持つ新しいコントラッシブ・モーション・クラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-21T06:40:31Z) - Visual Commonsense-aware Representation Network for Video Captioning [84.67432867555044]
ビデオキャプションのためのシンプルで効果的なVisual Commonsense-aware Representation Network (VCRN)を提案する。
提案手法は最先端の性能に到達し,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-11-17T11:27:15Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - Adaptive Video Highlight Detection by Learning from User History [18.18119240674014]
本研究では,ユーザの履歴を,ユーザが以前に作成したハイライト形式で活用することで,ハイライト検出をユーザに適用するフレームワークを提案する。
我々のフレームワークは2つのサブネットワークで構成されている。完全な時間的畳み込みハイライト検出ネットワーク$H$は、入力ビデオのハイライトを予測し、履歴エンコーダネットワーク$M$は、ユーザ履歴のためのものである。
論文 参考訳(メタデータ) (2020-07-19T05:52:20Z) - Unsupervised Learning of Video Representations via Dense Trajectory
Clustering [86.45054867170795]
本稿では,ビデオにおける行動認識のための表現の教師なし学習の課題に対処する。
まず、このクラスの2つのトップパフォーマンス目標(インスタンス認識と局所集約)を適用することを提案する。
有望な性能を観察するが、定性的解析により、学習した表現が動きのパターンを捉えないことを示す。
論文 参考訳(メタデータ) (2020-06-28T22:23:03Z) - DISIR: Deep Image Segmentation with Interactive Refinement [26.087244189340858]
本稿では,空中画像のマルチクラスセグメンテーションのためのインタラクティブなアプローチを提案する。
RGBイメージとアノテーションの両方を活用するディープニューラルネットワークに基づいている。
クリックごとに約5000ピクセルが修正されます。
論文 参考訳(メタデータ) (2020-03-31T13:37:42Z) - Watching the World Go By: Representation Learning from Unlabeled Videos [78.22211989028585]
近年の単一画像教師なし表現学習技術は,様々なタスクにおいて顕著な成功を収めている。
本稿では,この自然な拡張を無償で提供することを論じる。
そこで本稿では,ビデオノイズコントラスト推定(Voice Noise Contrastive Estimation)を提案する。
論文 参考訳(メタデータ) (2020-03-18T00:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。