論文の概要: Human Action CLIPS: Detecting AI-generated Human Motion
- arxiv url: http://arxiv.org/abs/2412.00526v1
- Date: Sat, 30 Nov 2024 16:20:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:48:03.903356
- Title: Human Action CLIPS: Detecting AI-generated Human Motion
- Title(参考訳): AIが生成する人間の動きを検知するヒューマンアクションCLIPS
- Authors: Matyas Bohacek, Hany Farid,
- Abstract要約: 実物とAIによる人間の動きを区別するための効果的でロバストな手法について述べる。
この手法は、7つのテキスト・ツー・ビデオAIモデルと実際の映像のマッチングによって生成された人間のアクションによるビデオクリップのカスタム構築データセットに対して評価される。
- 参考スコア(独自算出の注目度): 13.106063755117399
- License:
- Abstract: Full-blown AI-generated video generation continues its journey through the uncanny valley to produce content that is perceptually indistinguishable from reality. Intermixed with many exciting and creative applications are malicious applications that harm individuals, organizations, and democracies. We describe an effective and robust technique for distinguishing real from AI-generated human motion. This technique leverages a multi-modal semantic embedding, making it robust to the types of laundering that typically confound more low- to mid-level approaches. This method is evaluated against a custom-built dataset of video clips with human actions generated by seven text-to-video AI models and matching real footage.
- Abstract(参考訳): フルブルーのAI生成ビデオ生成は、現実とは見分けがつかないコンテンツを生み出すために、不気味な谷を旅し続ける。
多くのエキサイティングでクリエイティブなアプリケーションと混ざり合ったのは、個人、組織、民主主義を害する悪意のあるアプリケーションです。
実物とAIによる人間の動きを区別するための効果的でロバストな手法について述べる。
この手法はマルチモーダルなセマンティックな埋め込みを利用しており、通常より低レベルから中レベルなアプローチで解決される洗浄のタイプに頑丈である。
この手法は、7つのテキスト・ツー・ビデオAIモデルと実際の映像のマッチングによって生成された人間のアクションによるビデオクリップのカスタム構築データセットに対して評価される。
関連論文リスト
- Dreamitate: Real-World Visuomotor Policy Learning via Video Generation [49.03287909942888]
本研究では,与えられたタスクの人間による実演の映像拡散モデルを微調整するビジュモータポリシー学習フレームワークを提案する。
我々は,新しいシーンの画像に条件付きタスクの実行例を生成し,この合成された実行を直接使用してロボットを制御する。
論文 参考訳(メタデータ) (2024-06-24T17:59:45Z) - Learning an Actionable Discrete Diffusion Policy via Large-Scale Actionless Video Pre-Training [69.54948297520612]
ジェネラリストの具体化エージェントを学ぶことは、主にアクションラベル付きロボットデータセットの不足に起因して、課題を提起する。
これらの課題に対処するための新しい枠組みを導入し、人間のビデオにおける生成前トレーニングと、少数のアクションラベル付きロボットビデオのポリシー微調整を組み合わせるために、統一された離散拡散を利用する。
提案手法は, 従来の最先端手法と比較して, 高忠実度な今後の計画ビデオを生成し, 細調整されたポリシーを強化する。
論文 参考訳(メタデータ) (2024-02-22T09:48:47Z) - Learning to Act from Actionless Videos through Dense Correspondences [87.1243107115642]
本稿では,様々なロボットや環境にまたがる多様なタスクを確実に実行可能なビデオベースのロボットポリシーを構築するためのアプローチを提案する。
本手法は,ロボットの目標を指定するための汎用表現として,状態情報と行動情報の両方を符号化するタスク非依存表現として画像を利用する。
テーブルトップ操作とナビゲーションタスクの学習方針における我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-10-12T17:59:23Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - LARNet: Latent Action Representation for Human Action Synthesis [3.3454373538792552]
我々は、人間のアクションビデオを生成するための新しいエンドツーエンドアプローチであるLARNetを提案する。
我々は、推論中に駆動ビデオが不要になるのを避けるために、潜時空間でのアクションダイナミクスを学習する。
提案手法を実世界の4つの行動データセットで評価する。
論文 参考訳(メタデータ) (2021-10-21T05:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。