論文の概要: Minimizing Risk Through Minimizing Model-Data Interaction: A Protocol For Relying on Proxy Tasks When Designing Child Sexual Abuse Imagery Detection Models
- arxiv url: http://arxiv.org/abs/2505.06621v1
- Date: Sat, 10 May 2025 12:10:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.945093
- Title: Minimizing Risk Through Minimizing Model-Data Interaction: A Protocol For Relying on Proxy Tasks When Designing Child Sexual Abuse Imagery Detection Models
- Title(参考訳): モデル・データ相互作用の最小化によるリスク最小化:子どもの性的虐待画像検出モデルの設計におけるプロキシタスクの中継プロトコル
- Authors: Thamiris Coelho, Leo S. F. Ribeiro, João Macedo, Jefersson A. dos Santos, Sandra Avila,
- Abstract要約: 子どもの性的虐待のイメージ(CSAI)は、現代社会でますます関心を集めている。
この負担を軽減するために、研究者はデータトリアージの自動化とCSAIの検出方法を模索した。
CSAデータを用いずにCSAIのトレーニングモデルに使用する代用タスク"プロキシタスク"の定義を形式化する。
- 参考スコア(独自算出の注目度): 7.47716232790068
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The distribution of child sexual abuse imagery (CSAI) is an ever-growing concern of our modern world; children who suffered from this heinous crime are revictimized, and the growing amount of illegal imagery distributed overwhelms law enforcement agents (LEAs) with the manual labor of categorization. To ease this burden researchers have explored methods for automating data triage and detection of CSAI, but the sensitive nature of the data imposes restricted access and minimal interaction between real data and learning algorithms, avoiding leaks at all costs. In observing how these restrictions have shaped the literature we formalize a definition of "Proxy Tasks", i.e., the substitute tasks used for training models for CSAI without making use of CSA data. Under this new terminology we review current literature and present a protocol for making conscious use of Proxy Tasks together with consistent input from LEAs to design better automation in this field. Finally, we apply this protocol to study -- for the first time -- the task of Few-shot Indoor Scene Classification on CSAI, showing a final model that achieves promising results on a real-world CSAI dataset whilst having no weights actually trained on sensitive data.
- Abstract(参考訳): 児童性的虐待のイメージ(CSAI)の分布は、現代社会における絶え間なく増大している関心事であり、この狂った犯罪に苦しむ子どもたちは、解放され、違法な画像が配布されるほど、法執行機関(LEA)は、手作業による分類の作業に圧倒される。
この負担を軽減するために、研究者はCSAIのトリアージと検出を自動化する方法を模索してきたが、データに敏感な性質は、実際のデータと学習アルゴリズム間のアクセス制限と最小限の相互作用を課し、あらゆるコストでリークを避ける。
これらの制約がいかに文献を形作るかを観察し、CSAデータを使わずにCSAIのモデルの訓練に使用される代用タスク"Proxy Tasks"の定義を定式化する。
この新たな用語の下で、我々は現在の文献をレビューし、この分野でより優れた自動化を設計するために、LEAからの一貫した入力とともにプロキシタスクを意識的に利用するためのプロトコルを提示します。
最後に、このプロトコルを適用して、CSAI上のFew-shot Indoor Scene Classificationのタスクを初めて研究し、現実のCSAIデータセットで有望な結果を達成する最終モデルを示します。
関連論文リスト
- No Query, No Access [50.18709429731724]
被害者のテキストのみを使用して動作する textbfVictim Data-based Adrial Attack (VDBA) を導入する。
被害者モデルへのアクセスを防止するため、公開されている事前トレーニングモデルとクラスタリングメソッドを備えたシャドウデータセットを作成します。
EmotionとSST5データセットの実験によると、VDBAは最先端の手法より優れており、ASRの改善は52.08%である。
論文 参考訳(メタデータ) (2025-05-12T06:19:59Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [75.85554113398626]
我々は、既存のAIエージェントと将来のAIエージェントが、潜在的にプライベートな情報の処理をどの程度制限できるかを評価するために、AgentDAMと呼ばれるベンチマークを開発する。
我々のベンチマークは、現実的なWebインタラクションシナリオをシミュレートし、既存のWebナビゲーションエージェントすべてに適用できる。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - Ensuring Medical AI Safety: Explainable AI-Driven Detection and Mitigation of Spurious Model Behavior and Associated Data [14.991686165405959]
本稿では,データとモデルの両方の観点から,突発的行動を特定するための半自動フレームワークを提案する。
これにより、急激なデータポイントの検索と、関連する予測ルールを符号化するモデル回路の検出が可能になる。
4つの医療データセットを用いて,本フレームワークの適用性を示す。
論文 参考訳(メタデータ) (2025-01-23T16:39:09Z) - Detecting sexually explicit content in the context of the child sexual abuse materials (CSAM): end-to-end classifiers and region-based networks [0.0]
子どもの性的虐待物質(CSAM)は、世界中の子供の安全と幸福を脅かす。
本研究は、CSAM自動検出システムにおいて重要な役割を担う性的な内容の分類方法を提案する。
論文 参考訳(メタデータ) (2024-06-20T09:21:08Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - From Zero to Hero: Detecting Leaked Data through Synthetic Data Injection and Model Querying [10.919336198760808]
分類モデルの学習に使用される漏洩データを検出する新しい手法を提案する。
textscLDSSは、クラス分散の局所的なシフトによって特徴付けられる、少量の合成データを所有者のデータセットに注入する。
これにより、モデルクエリ単独で、リークデータに基づいてトレーニングされたモデルの効果的な識別が可能になる。
論文 参考訳(メタデータ) (2023-10-06T10:36:28Z) - DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - Semi-Supervised Temporal Action Detection with Proposal-Free Masking [134.26292288193298]
PropOsal-free Temporal mask (SPOT) に基づく新しい半教師付き時間行動検出モデルを提案する。
SPOTは最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2022-07-14T16:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。