論文の概要: FERRET: Framework for Expansion Reliant Red Teaming
- arxiv url: http://arxiv.org/abs/2603.10010v1
- Date: Tue, 17 Feb 2026 20:59:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.562321
- Title: FERRET: Framework for Expansion Reliant Red Teaming
- Title(参考訳): FERRET: 拡張性を持つレッドチームのためのフレームワーク
- Authors: Ninareh Mehrabi, Vitor Albiero, Maya Pavlova, Joanna Bitton,
- Abstract要約: 我々は,多面的対角的会話を生成することを目的とした,多面的自動赤チーム編成フレームワークを提案する。
フレームワークはFERRET( Framework for Expansion Reliant Red Teaming)と呼ばれ、既存の自動化されたレッドチームと比べます。
本実験では, FERRETの有効性を実証した。
- 参考スコア(独自算出の注目度): 7.0254797327165255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a multi-faceted automated red teaming framework in which the goal is to generate multi-modal adversarial conversations that would break a target model and introduce various expansions that would result in more effective and efficient adversarial conversations. The introduced expansions include: 1. Horizontal expansion in which the goal is for the red team model to self-improve and generate more effective conversation starters that would shape a conversation. 2. Vertical expansion in which the goal is to take these conversation starters that are discovered in the horizontal expansion phase and expand them into effective multi-modal conversations and 3. Meta expansion in which the goal is for the red team model to discover more effective multi-modal attack strategies during the course of a conversation. We call our framework FERRET (Framework for Expansion Reliant Red Teaming) and compare it with various existing automated red teaming approaches. In our experiments, we demonstrate the effectiveness of FERRET in generating effective multi-modal adversarial conversations and its superior performance against existing state of the art approaches.
- Abstract(参考訳): 目的は,ターゲットモデルに反するマルチモーダルな会話を生成し,より効率的かつ効率的な会話をもたらすような様々な拡張を導入することにある。
導入された拡張には以下のものがある。
1. レッドチームモデルの目標である水平展開は、会話を形作るより効果的な会話開始器を自己改善し、生成することです。
2. 水平展開段階で発見された会話開始者を効果的に多モーダルな会話へと拡張することを目的とした垂直展開。
3. 会話中により効果的なマルチモーダル攻撃戦略を発見するという,レッドチームモデルの目標とするメタ拡張。
フレームワークはFERRET(Framework for Expansion Reliant Red Teaming)と呼ばれ、既存の自動化されたレッドチームと比べます。
実験では, FERRETの有効性を実証し, 既存の最先端手法と比較して, 効果的なマルチモーダル対話の有効性と優れた性能を示す。
関連論文リスト
- GameTalk: Training LLMs for Strategic Conversation [51.29670609281524]
マルチターンインタラクションによる戦略的意思決定のために,LLMをトレーニングするフレームワークであるtextbfGameTalkを紹介した。
シングルターンの目的や静的アクション予測に焦点を当てた以前の作業とは異なり、私たちはLLMをトレーニングして、全会話にわたってグローバルな目的を最適化します。
本手法は, 推論, コーディネート, 対戦型モデリングの異なる側面を強調するために設計された, ますます複雑なゲーム群に対して評価する。
論文 参考訳(メタデータ) (2026-01-22T19:18:39Z) - Agentic Conversational Search with Contextualized Reasoning via Reinforcement Learning [66.52010873968383]
本稿では,RL学習を通じて学習した探索的,適応的な行動を可能にする,交互に探索と推論をインターリーブする対話エージェントを提案する。
広く使われている4つの対話型ベンチマークによる実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-19T14:55:54Z) - MAViD: A Multimodal Framework for Audio-Visual Dialogue Understanding and Generation [59.23161833385837]
音声対話理解・生成のための新しいマルチモーダルフレームワークMAViDを提案する。
本フレームワークは,ユーザのマルチモーダルクエリを正確に解釈し,鮮明かつコンテキスト的にコヒーレントなロングデュレーション対話を生成できる。
論文 参考訳(メタデータ) (2025-12-02T18:55:53Z) - Seeing Beyond the Scene: Enhancing Vision-Language Models with Interactional Reasoning [27.511627003202538]
伝統的なシーングラフは主に空間的関係に焦点を当て、視覚シーンにおける複雑な相互作用を推論する視覚言語モデル(VLM)の能力を制限する。
本稿では,(1) 従来の検出・構築手法は,非集中的かつ文脈的に無関係な関係集合を生成し,(2) 既存の手法では,新しい場面に起因した相互作用を一般化するための永続記憶の形成に失敗する,という2つの課題に対処する。
本稿では,3つの相補的なコンポーネントを通してVLMの相互作用推論を強化するフレームワークであるISGRを提案する。
論文 参考訳(メタデータ) (2025-05-14T04:04:23Z) - Exploring Straightforward Conversational Red-Teaming [3.5294587603612486]
オフザシェルフな大きな言語モデルは、効果的なレッドチームとして機能します。
オフザシェルフモデルは過去の試みに基づいて攻撃戦略を調整することができる。
論文 参考訳(メタデータ) (2024-09-07T13:28:01Z) - PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - ChatterBox: Multi-round Multimodal Referring and Grounding [108.9673313949746]
この目的のために,新しいベンチマークと効率的な視覚言語モデルを提案する。
提案したChatterBoxは、2ブランチアーキテクチャを使って視覚と言語タスクを協調的に処理する。
実験の結果、ChatterBoxはMRGの既存のモデルよりも定量的にも質的にも優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-24T09:02:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。