論文の概要: Missing-by-Design: Certifiable Modality Deletion for Revocable Multimodal Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2602.16144v1
- Date: Wed, 18 Feb 2026 02:29:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.493119
- Title: Missing-by-Design: Certifiable Modality Deletion for Revocable Multimodal Sentiment Analysis
- Title(参考訳): ミス・バイ・デザイン: 回避可能なマルチモーダル感性分析のための認定モダリティ削除
- Authors: Rong Fu, Wenxin Zhang, Ziming Wang, Chunlei Meng, Jiaxuan Lu, Jiekai Wu, Kangan Qian, Hao Zhang, Simon Fong,
- Abstract要約: マルチモーダル感情分析のための統合フレームワークであるMissing-by-Design(MBD)を提案する。
プライバシーに敏感なアプリケーションでは、ユーザや規制当局がモダリティ固有の情報の削除を要求することがある。
ベンチマークデータセットの実験は、MBDが不完全入力下で強い予測性能を達成することを示している。
- 参考スコア(独自算出の注目度): 21.53713137471016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As multimodal systems increasingly process sensitive personal data, the ability to selectively revoke specific data modalities has become a critical requirement for privacy compliance and user autonomy. We present Missing-by-Design (MBD), a unified framework for revocable multimodal sentiment analysis that combines structured representation learning with a certifiable parameter-modification pipeline. Revocability is critical in privacy-sensitive applications where users or regulators may request removal of modality-specific information. MBD learns property-aware embeddings and employs generator-based reconstruction to recover missing channels while preserving task-relevant signals. For deletion requests, the framework applies saliency-driven candidate selection and a calibrated Gaussian update to produce a machine-verifiable Modality Deletion Certificate. Experiments on benchmark datasets show that MBD achieves strong predictive performance under incomplete inputs and delivers a practical privacy-utility trade-off, positioning surgical unlearning as an efficient alternative to full retraining.
- Abstract(参考訳): マルチモーダルシステムが機密データをますます処理するにつれて、特定のデータモダリティを選択的に取り消す能力は、プライバシコンプライアンスとユーザの自律性にとって重要な要件となっている。
我々は、構造化表現学習と証明可能なパラメータ修正パイプラインを組み合わせた、退避可能なマルチモーダル感情分析のための統合フレームワークであるMissing-by-Design(MBD)を提案する。
プライバシーに敏感なアプリケーションでは、ユーザや規制当局がモダリティ固有の情報の削除を要求することがある。
MBDは、プロパティ認識の埋め込みを学習し、ジェネレータベースの再構築を使用して、タスク関連信号を保持しながら、行方不明のチャネルを復元する。
削除要求に対して、このフレームワークは、サリエンシ駆動の候補選択とキャリブレーションされたガウス更新を適用して、マシン検証可能なModality Deletion Certificateを生成する。
ベンチマークデータセットの実験では、MBDは不完全入力下で強力な予測性能を達成し、実用的なプライバシー利用トレードオフを提供し、外科的アンラーニングをフルリトレーニングの効果的な代替手段として位置づけている。
関連論文リスト
- Fix Before Search: Benchmarking Agentic Query Visual Pre-processing in Multimodal Retrieval-augmented Generation [47.96044455071274]
V-QPP-Benchは、Visual Queryの事前処理に特化した最初のベンチマークである。
視覚障害は、検索リコールとエンド・ツー・エンドのMRAGパフォーマンスの両方を著しく低下させる。
市販のMLLMは、特別な訓練を受けずにツールの選択とパラメータ予測に苦労する。
教師付き微調整により、コンパクトモデルはより大きなプロプライエタリモデルと同等または優れた性能を達成できる。
論文 参考訳(メタデータ) (2026-02-13T18:39:48Z) - Feature-Selective Representation Misdirection for Machine Unlearning [34.167873590478074]
マシンアンラーニングは、デプロイされたモデルが進化する法律、安全、ガバナンス要件に準拠することを確実にするのに役立つ。
現在の未学習のテクニックは、データセットの忘れと保持のクリーンな分離を前提としている。
本稿では,アクティベーション編集フレームワークSRMU(Selective Representation Misdirection for Unlearning)を提案する。
論文 参考訳(メタデータ) (2025-12-18T08:31:50Z) - Scalable and Robust LLM Unlearning by Correcting Responses with Retrieved Exclusions [49.55618517046225]
Webスケールのコーパスリスクを記憶し、センシティブな情報を暴露する言語モデル。
本稿では,新しいアンラーニングフレームワークであるCorrective Unlearning with Retrieved Exclusions (CURE)を提案する。
CUREは、リークのモデル出力を確認し、安全な応答に修正する。
論文 参考訳(メタデータ) (2025-09-30T09:07:45Z) - Just Enough Shifts: Mitigating Over-Refusal in Aligned Language Models with Targeted Representation Fine-Tuning [19.823784666021822]
ACTORは、さまざまなクエリから内部アクティベーションパターンを活用することで、過剰な拒絶を最小化する。
ACTORは、リファインをトリガーするアクティベーションコンポーネントを正確に識別し、調整し、リファイン機構のより強力な制御を提供する。
論文 参考訳(メタデータ) (2025-07-06T05:47:04Z) - Stress-Testing ML Pipelines with Adversarial Data Corruption [11.91482648083998]
規制当局は現在、ハイテイクシステムは現実的で相互依存的なエラーに耐えられるという証拠を要求している。
SAVAGEは依存性グラフとフレキシブルな汚いテンプレートを通じて、データ品質の問題を正式にモデル化するフレームワークです。
Savanageは、脆弱性のあるデータサブポピュレーションと微調整による汚職の深刻度を効率的に識別するために、双方向の最適化アプローチを採用している。
論文 参考訳(メタデータ) (2025-06-02T00:41:24Z) - PATFinger: Prompt-Adapted Transferable Fingerprinting against Unauthorized Multimodal Dataset Usage [19.031839603738057]
マルチモーダルデータセットは、クロスモーダルセマンティクスを提供することで、事前訓練されたビジョン適応モデルに活用することができる。
本稿では,PATFingerと呼ばれる新しいプロンプト言語変換可能なフィンガープリント手法を提案する。
提案手法では,モデルにトリガを学習させる代わりに,固有データセット属性を指紋として利用する。
論文 参考訳(メタデータ) (2025-04-15T09:53:02Z) - Fast or Better? Balancing Accuracy and Cost in Retrieval-Augmented Generation with Flexible User Control [52.405085773954596]
Retrieval-Augmented Generationは、大規模な言語モデル幻覚を緩和するための強力なアプローチとして登場した。
既存のRAGフレームワークは、しばしば無差別に検索を適用し、非効率な再検索につながる。
本稿では,精度・コストのトレードオフを動的に調整できる新しいユーザ制御可能なRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:56:20Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。