論文の概要: MLA-Trust: Benchmarking Trustworthiness of Multimodal LLM Agents in GUI Environments
- arxiv url: http://arxiv.org/abs/2506.01616v1
- Date: Mon, 02 Jun 2025 12:56:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.38489
- Title: MLA-Trust: Benchmarking Trustworthiness of Multimodal LLM Agents in GUI Environments
- Title(参考訳): MLA-Trust:GUI環境におけるマルチモーダルLLMエージェントの信頼性ベンチマーク
- Authors: Xiao Yang, Jiawei Chen, Jun Luo, Zhengwei Fang, Yinpeng Dong, Hang Su, Jun Zhu,
- Abstract要約: MLA-Trustは,完全性,コントロール可能性,安全性,プライバシという4つの側面にまたがって,MLAの信頼性を評価する,初めての総合的かつ統一的なフレームワークである。
ウェブサイトやモバイルアプリケーションをリアルなテストベッドとして利用し、34のハイリスクな対話タスクを設計し、リッチな評価データセットをキュレートします。
- 参考スコア(独自算出の注目度): 40.15090158534087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of multimodal LLM-based agents (MLAs) has transformed interaction paradigms by seamlessly integrating vision, language, action and dynamic environments, enabling unprecedented autonomous capabilities across GUI applications ranging from web automation to mobile systems. However, MLAs introduce critical trustworthiness challenges that extend far beyond traditional language models' limitations, as they can directly modify digital states and trigger irreversible real-world consequences. Existing benchmarks inadequately tackle these unique challenges posed by MLAs' actionable outputs, long-horizon uncertainty and multimodal attack vectors. In this paper, we introduce MLA-Trust, the first comprehensive and unified framework that evaluates the MLA trustworthiness across four principled dimensions: truthfulness, controllability, safety and privacy. We utilize websites and mobile applications as realistic testbeds, designing 34 high-risk interactive tasks and curating rich evaluation datasets. Large-scale experiments involving 13 state-of-the-art agents reveal previously unexplored trustworthiness vulnerabilities unique to multimodal interactive scenarios. For instance, proprietary and open-source GUI-interacting MLAs pose more severe trustworthiness risks than static MLLMs, particularly in high-stakes domains; the transition from static MLLMs into interactive MLAs considerably compromises trustworthiness, enabling harmful content generation in multi-step interactions that standalone MLLMs would typically prevent; multi-step execution, while enhancing the adaptability of MLAs, involves latent nonlinear risk accumulation across successive interactions, circumventing existing safeguards and resulting in unpredictable derived risks. Moreover, we present an extensible toolbox to facilitate continuous evaluation of MLA trustworthiness across diverse interactive environments.
- Abstract(参考訳): マルチモーダルLSMベースのエージェント(MLAs)の出現は、視覚、言語、アクション、動的環境をシームレスに統合し、Webオートメーションからモバイルシステムまで、GUIアプリケーション間で前例のない自律的な機能を実現することによって、インタラクションパラダイムを変革した。
しかし、MLAは、デジタル状態を直接修正し、不可逆的な現実世界の結果を引き起こすことができるため、従来の言語モデルの限界を超えて、重要な信頼性の課題を導入している。
既存のベンチマークでは、MLAの実行可能な出力、長期不確実性、マルチモーダル攻撃ベクトルによって引き起こされるこれらの固有の課題に不十分に対処している。
本稿では,MLA-Trustを紹介する。これは,MLAの信頼性を,真理性,コントロール可能性,安全性,プライバシの4つの原則に分けて評価する,初めての包括的かつ統一的なフレームワークである。
ウェブサイトやモバイルアプリケーションをリアルなテストベッドとして利用し、34のハイリスクな対話タスクを設計し、リッチな評価データセットをキュレートします。
13の最先端エージェントを含む大規模な実験では、マルチモーダルな対話シナリオに特有の、これまで発見されていなかった信頼性の脆弱性が明らかになった。
例えば、プロプライエタリでオープンソースのGUI操作型MLAは、静的MLLMよりも深刻な信頼性リスクを生じ、特にハイテイクなドメインでは、静的MLLMからインタラクティブなMLAへの移行は信頼性を著しく損なうため、スタンドアロンMLLMが通常防ぐであろう多段階インタラクションにおいて有害なコンテンツ生成を可能にする。
さらに,多様な対話環境において,MLAの信頼性を継続的に評価するための拡張可能なツールボックスを提案する。
関連論文リスト
- Align is not Enough: Multimodal Universal Jailbreak Attack against Multimodal Large Language Models [83.80177564873094]
マルチモーダル・ユニバーサル・ジェイルブレイク・アタック・フレームワークを提案する。
LLaVA,Yi-VL,MiniGPT4,MiniGPT-v2,InstructBLIPなどのMLLMの望ましくないコンテキスト生成を評価する。
本研究は,MLLMにおける堅牢な安全対策の必要性を浮き彫りにするものである。
論文 参考訳(メタデータ) (2025-06-02T04:33:56Z) - A Weighted Byzantine Fault Tolerance Consensus Driven Trusted Multiple Large Language Models Network [53.37983409425452]
大規模言語モデル(LLM)は幅広いアプリケーションで大きな成功を収めています。
近年,MultiLLMネットワーク(MultiLLMN)などの協調フレームワークが導入されている。
重み付きビザンチンフォールトトレランス(WBFT)ブロックチェーンコンセンサス機構によって駆動される新しいTrusted MultiLLMNフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-08T10:04:41Z) - MultiTrust: A Comprehensive Benchmark Towards Trustworthy Multimodal Large Language Models [51.19622266249408]
MultiTrustはMLLMの信頼性に関する最初の総合的で統一されたベンチマークである。
我々のベンチマークでは、マルチモーダルリスクとクロスモーダルインパクトの両方に対処する厳格な評価戦略を採用している。
21の近代MLLMによる大規模な実験は、これまで調査されなかった信頼性の問題とリスクを明らかにしている。
論文 参考訳(メタデータ) (2024-06-11T08:38:13Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。