論文の概要: Adversarial ML Problems Are Getting Harder to Solve and to Evaluate
- arxiv url: http://arxiv.org/abs/2502.02260v1
- Date: Tue, 04 Feb 2025 12:17:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:00:02.719150
- Title: Adversarial ML Problems Are Getting Harder to Solve and to Evaluate
- Title(参考訳): 対立するML問題の解決と評価が難しくなっている
- Authors: Javier Rando, Jie Zhang, Nicholas Carlini, Florian Tramèr,
- Abstract要約: 過去10年間で、敵の環境で動く機械学習(ML)モデルの確保にかなりの研究努力が注がれている。
しかし、単純な"toy"問題でさえ進歩は遅くなっています。
今日、敵対的ML研究はより大きな汎用言語モデルの研究へと移行している。
- 参考スコア(独自算出の注目度): 62.306374598571516
- License:
- Abstract: In the past decade, considerable research effort has been devoted to securing machine learning (ML) models that operate in adversarial settings. Yet, progress has been slow even for simple "toy" problems (e.g., robustness to small adversarial perturbations) and is often hindered by non-rigorous evaluations. Today, adversarial ML research has shifted towards studying larger, general-purpose language models. In this position paper, we argue that the situation is now even worse: in the era of LLMs, the field of adversarial ML studies problems that are (1) less clearly defined, (2) harder to solve, and (3) even more challenging to evaluate. As a result, we caution that yet another decade of work on adversarial ML may fail to produce meaningful progress.
- Abstract(参考訳): 過去10年間で、敵の環境で動く機械学習(ML)モデルの確保にかなりの研究努力が注がれている。
しかし、単純な "toy" 問題(例えば、小さな敵の摂動に対する堅牢性)でさえ進行は遅く、しばしば非厳密な評価によって妨げられている。
今日、敵対的ML研究はより大きな汎用言語モデルの研究へと移行している。
本稿では,LLMの時代には,(1)明確に定義されていない問題,(2)解決し難い問題,(3)さらに評価が難しい問題について,敵対的ML研究の分野が研究されている。
その結果、敵MLに対する10年以上の取り組みは、有意義な進歩を生まない可能性があると警告した。
関連論文リスト
- ErrorRadar: Benchmarking Complex Mathematical Reasoning of Multimodal Large Language Models Via Error Detection [60.297079601066784]
エラー検出におけるMLLMの能力を評価するために設計された最初のベンチマークであるErrorRadarを紹介する。
ErrorRadarはエラーステップ識別とエラー分類という2つのサブタスクを評価している。
2500の高品質なマルチモーダルK-12数学問題で構成され、実世界の学生相互作用から収集される。
GPT-4oの優れた性能は、まだ人間の評価に約10%遅れているため、大きな課題が残っている。
論文 参考訳(メタデータ) (2024-10-06T14:59:09Z) - Maintainability Challenges in ML: A Systematic Literature Review [5.669063174637433]
本研究の目的は,機械学習ワークフローのさまざまな段階における保守性課題を特定し,合成することである。
13,000件以上の論文を審査し、56件を質的に分析した。
論文 参考訳(メタデータ) (2024-08-17T13:24:15Z) - Adversarial Math Word Problem Generation [6.92510069380188]
大規模言語モデル(LLM)の公平な評価を保証するための新しいパラダイムを提案する。
評価を目的とした質問の構造と難易度を保持する逆例を生成するが,LLMでは解けない。
我々は様々なオープン・クローズド・ソース LLM の実験を行い、定量的かつ質的に、我々の手法が数学の問題解決能力を著しく低下させることを示した。
論文 参考訳(メタデータ) (2024-02-27T22:07:52Z) - Trustworthy Large Models in Vision: A Survey [8.566163225282724]
大規模モデル(LM)は、自然言語処理(NLP)やコンピュータビジョン(CV)など、ディープラーニングの様々な分野に革命をもたらした。
LMは、強力なパフォーマンスだが信頼できない振る舞いのために、学界や業界によってますます批判され、批判されている。
本調査では,1)人間の誤用,2)脆弱性,3)固有の問題,4)解釈可能性など,LMのビジョンにおける信頼性の高い使用を阻害する4つの懸念点を要約する。
本調査は,この分野に対する読者の理解を深め,人的期待とLMの整合性を高めるとともに,人類社会の災害というよりも,信頼性の高いLMを福祉として機能させることを期待する。
論文 参考訳(メタデータ) (2023-11-16T08:49:46Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - "Real Attackers Don't Compute Gradients": Bridging the Gap Between
Adversarial ML Research and Practice [10.814642396601139]
研究者と実践者の間に明らかなギャップがあることから,本論文は2つの領域を橋渡しすることを目的としている。
まず実世界のケーススタディを3つのケーススタディで提示し、そのケーススタディから、未知の、あるいは無視された実用的な洞察を導き出すことができる。
次に、トップセキュリティカンファレンスで最近公開されたすべての敵対的ML論文を分析し、ポジティブなトレンドと盲点を強調します。
論文 参考訳(メタデータ) (2022-12-29T14:11:07Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z) - Interpretable Machine Learning -- A Brief History, State-of-the-Art and
Challenges [0.8029049649310213]
我々は、解釈可能な機械学習(IML)の分野の簡単な歴史を提示し、最先端の解釈手法の概要を説明し、課題について議論する。
この分野は若いが、回帰モデリングとルールベースの機械学習に200年以上のルーツがある。
多くの新しいIML手法が提案され、その多くがモデルに依存しないが、深層学習や木に基づくアンサンブルに特有の解釈技術も提案されている。
論文 参考訳(メタデータ) (2020-10-19T09:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。