論文の概要: SafeMo: Linguistically Grounded Unlearning for Trustworthy Text-to-Motion Generation
- arxiv url: http://arxiv.org/abs/2601.00590v1
- Date: Fri, 02 Jan 2026 06:31:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.534569
- Title: SafeMo: Linguistically Grounded Unlearning for Trustworthy Text-to-Motion Generation
- Title(参考訳): SafeMo: 信頼できるテキスト・ツー・モーション・ジェネレーションのための言語学的根拠のないアンラーニング
- Authors: Yiling Wang, Zeyu Zhang, Yiran Wang, Hao Tang,
- Abstract要約: 拡散バックボーンによるテキスト・トゥ・モーション(T2M)生成は、強いリアリズムとアライメントを実現する。
現在のメソッドは、モデルの安全でない動作を避けるために、個別のVQ-VAEコードブックエントリを置き換える。
ミニマルモーション・アンラーニング(MMU)を統合した信頼に値するモーション生成フレームワークSafeMoを提案する。
安全なテキストプロンプトを書き換えた最初の安全なテキスト間データセットSafeMoVAE-29Kについて述べる。
- 参考スコア(独自算出の注目度): 14.285672476382379
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text-to-motion (T2M) generation with diffusion backbones achieves strong realism and alignment. Safety concerns in T2M methods have been raised in recent years; existing methods replace discrete VQ-VAE codebook entries to steer the model away from unsafe behaviors. However, discrete codebook replacement-based methods have two critical flaws: firstly, replacing codebook entries which are reused by benign prompts leads to drifts on everyday tasks, degrading the model's benign performance; secondly, discrete token-based methods introduce quantization and smoothness loss, resulting in artifacts and jerky transitions. Moreover, existing text-to-motion datasets naturally contain unsafe intents and corresponding motions, making them unsuitable for safety-driven machine learning. To address these challenges, we propose SafeMo, a trustworthy motion generative framework integrating Minimal Motion Unlearning (MMU), a two-stage machine unlearning strategy, enabling safe human motion generation in continuous space, preserving continuous kinematics without codebook loss and delivering strong safety-utility trade-offs compared to current baselines. Additionally, we present the first safe text-to-motion dataset SafeMoVAE-29K integrating rewritten safe text prompts and continuous refined motion for trustworthy human motion unlearning. Built upon DiP, SafeMo efficiently generates safe human motions with natural transitions. Experiments demonstrate effective unlearning performance of SafeMo by showing strengthened forgetting on unsafe prompts, reaching 2.5x and 14.4x higher forget-set FID on HumanML3D and Motion-X respectively, compared to the previous SOTA human motion unlearning method LCR, with benign performance on safe prompts being better or comparable. Code: https://github.com/AIGeeksGroup/SafeMo. Website: https://aigeeksgroup.github.io/SafeMo.
- Abstract(参考訳): 拡散バックボーンによるテキスト・トゥ・モーション(T2M)生成は、強いリアリズムとアライメントを実現する。
T2M手法の安全性に関する懸念は近年高まっているが、既存の手法ではVQ-VAEコードブックを個別に置き換えて、モデルを安全でない動作から遠ざけるようにしている。
ひとつは、良心的なプロンプトによって再利用されるコードブックエントリを置き換えることで、日常的なタスクのドリフトが発生し、モデルの良心的なパフォーマンスが低下すること、もうひとつは、離散トークンベースのメソッドが量子化と滑らかさの損失を導入し、アーティファクトとジャーキーな遷移をもたらすことである。
さらに、既存のテキスト・トゥ・モーションデータセットには、安全でない意図と対応する動きが自然に含まれており、安全駆動機械学習には適さない。
これらの課題に対処するために,ミニマルモーション・アンラーニング(MMU)という2段階のマシン・アンラーニング戦略を統合した信頼性の高いモーション生成フレームワークであるSafeMoを提案する。
さらに,安全なテキスト・ツー・モーション・データセットであるSafeMoVAE-29Kを提案する。
DiPをベースとしたSafeMoは、自然な遷移を伴う安全な人間の動きを効率よく生成する。
セーフモーの効果的なアンラーニング性能を示す実験は、安全プロンプトの強い忘れ込みを示し、HumanML3DとMotion-Xでそれぞれ2.5倍、14.4倍高いリサートセットFIDに到達し、従来のSOTAのヒューマンモーションアンラーニング手法であるLCRと比較して、安全プロンプトの良さと同等であることを示す。
コード:https://github.com/AIGeeksGroup/SafeMo。
ウェブサイト:https://aigeeksgroup.github.io/SafeMo.com
関連論文リスト
- ReMoMask: Retrieval-Augmented Masked Motion Generation [13.42229775333369]
Text-to-Motion (T2M) の生成は、自然言語記述から現実的で意味的に整合した人間の動作シーケンスを合成することを目的としている。
3つの重要なイノベーションを統合する統合フレームワークであるReMoMaskを提案する。
双方向Momentum Text-Motion Modelは、モーメントキューを介してバッチサイズから負のサンプルスケールを分離し、クロスモーダル検索精度を大幅に改善する。
Semantic Spatio-temporal Attentionメカニズムは、非同期アーティファクトを排除するために、部分レベル融合中の生体力学的制約を強制する。
論文 参考訳(メタデータ) (2025-08-04T16:56:35Z) - Human Motion Unlearning [7.021561988248192]
有毒なアニメーションの合成を防止するために,人間の動作を学習するタスクを導入する。
大規模かつ最近のテキスト・ツー・モーション・データセットから有害な動きをフィルタリングして,最初の動作ベンチマークを提案する。
我々はLCRをダブしたLatent Code Replacementに基づく新しい動き学習モデルを提案する。
論文 参考訳(メタデータ) (2025-03-24T13:46:27Z) - Safe Vision-Language Models via Unsafe Weights Manipulation [75.04426753720551]
我々は、異なるレベルの粒度で安全性を評価する新しい指標セットであるSafe-Groundを導入し、安全性の評価を見直した。
我々は異なる方向を採り、トレーニングなしでモデルをより安全にできるかどうかを探り、Unsafe Weights Manipulation (UWM)を導入します。
UWMは、セーフとアンセーフのインスタンスのキャリブレーションセットを使用して、セーフとアンセーフのコンテンツのアクティベーションを比較し、後者を処理する上で最も重要なパラメータを特定する。
論文 参考訳(メタデータ) (2025-03-14T17:00:22Z) - SAFREE: Training-Free and Adaptive Guard for Safe Text-to-Image And Video Generation [65.30207993362595]
安全な生成のための学習/編集に基づく手法は、モデルから有害な概念を取り除くが、いくつかの課題に直面している。
安全なT2IとT2VのためのトレーニングフリーアプローチであるSAFREEを提案する。
テキスト埋め込み空間における有毒な概念の集合に対応する部分空間を検出し、この部分空間から直ちに埋め込みを行う。
論文 参考訳(メタデータ) (2024-10-16T17:32:23Z) - SCANS: Mitigating the Exaggerated Safety for LLMs via Safety-Conscious Activation Steering [56.92068213969036]
悪意のある命令から脅威を守るために、LLM(Large Language Models)には安全アライメントが不可欠である。
近年の研究では、過大な安全性の問題により、安全性に配慮したLCMは、良質な問い合わせを拒否する傾向にあることが明らかになっている。
過大な安全性の懸念を和らげるために,SCANS法を提案する。
論文 参考訳(メタデータ) (2024-08-21T10:01:34Z) - Autonomous LLM-Enhanced Adversarial Attack for Text-to-Motion [22.666853714543993]
テキスト・トゥ・モーション(T2M)モデルはテキスト・プロンプトからリアルな動きを生成する。
T2Mへの関心が高まったが、敵の攻撃からこれらのモデルを保護することに焦点を当てる手法はほとんどなかった。
ALERT-Motionは,ブラックボックスT2Mモデルに対する敵攻撃を標的とする自律的フレームワークである。
論文 参考訳(メタデータ) (2024-08-01T07:44:11Z) - Refuse Whenever You Feel Unsafe: Improving Safety in LLMs via Decoupled Refusal Training [67.30423823744506]
我々は,LLMに対して,いかなる応答位置においても有害なプロンプトへのコンプライアンスを拒否する権限を付与する,新しいアプローチであるDecoupled Refusal Training(DeRTa)を導入する。
DeRTaは,(1)安全応答の開始に有害な応答のセグメントを付加することにより,安全でないコンテンツの認識と回避をモデルに訓練する,(2)有害応答シーケンスを通して潜在的障害から安全拒絶へ移行する能力をモデルに装備する強化遷移最適化(RTO)という,2つの新しいコンポーネントを組み込んでいる。
論文 参考訳(メタデータ) (2024-07-12T09:36:33Z) - BAMM: Bidirectional Autoregressive Motion Model [14.668729995275807]
Bidirectional Autoregressive Motion Model (BAMM) は、新しいテキスト・ツー・モーション生成フレームワークである。
BAMMは2つの重要な構成要素から構成される: 3次元の人間の動きを潜在空間の離散トークンに変換するモーショントークンライザと、ランダムにマスクされたトークンを自動回帰予測するマスク付き自己注意変換器である。
この機能により、BAMMは、ユーザビリティと内蔵モーション編集性を向上し、高品質なモーション生成を同時に達成できる。
論文 参考訳(メタデータ) (2024-03-28T14:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。