論文の概要: A comment on Guo et al. [arXiv:2206.11228]
- arxiv url: http://arxiv.org/abs/2208.01456v1
- Date: Tue, 2 Aug 2022 13:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:42:47.066367
- Title: A comment on Guo et al. [arXiv:2206.11228]
- Title(参考訳): Guo et al へのコメント。
[arXiv:2206.11228]
- Authors: Ben Lonnqvist, Harshitha Machiraju, Michael H. Herzog
- Abstract要約: Guo et al. [arXiv:2206.11228] は最近の記事で、ディープネットワークにおける敵対的に訓練された神経表現は、対応するIT神経表現と同じくらい堅牢である、と報告している。
論文の主な実験が明るみに出たが、論文に提示された結果の解釈と表現に疑問が持たれている。
- 参考スコア(独自算出の注目度): 0.5801044612920815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a recent article, Guo et al. [arXiv:2206.11228] report that adversarially
trained neural representations in deep networks may already be as robust as
corresponding primate IT neural representations. While we find the paper's
primary experiment illuminating, we have doubts about the interpretation and
phrasing of the results presented in the paper.
- Abstract(参考訳): 最近の記事では、Guo et al。
[arXiv:2206.11228]報告によると、ディープネットワークにおける敵意的に訓練された神経表現は、対応する霊長類IT神経表現と同じくらい堅牢である。
論文の主な実験が明るみに出たが、論文に提示された結果の解釈と表現に疑問が持たれている。
関連論文リスト
- Perturbation on Feature Coalition: Towards Interpretable Deep Neural Networks [0.1398098625978622]
ディープニューラルネットワーク(DNN)の“ブラックボックス”という性質は、透明性と信頼性を損なう。
本稿では,ネットワークの深い情報を利用して相関した特徴を抽出する,特徴連立による摂動に基づく解釈を提案する。
論文 参考訳(メタデータ) (2024-08-23T22:44:21Z) - Discovering "Semantics" in Super-Resolution Networks [54.45509260681529]
超解像(SR)は低レベルの視覚領域の基本的で代表的な課題である。
一般に、SRネットワークから抽出された特徴は特定の意味情報を持たないと考えられている。
SRネットワークで「セマンティック」を見つけることはできますか?
論文 参考訳(メタデータ) (2021-08-01T09:12:44Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Graph Convolutional Network for Swahili News Classification [78.6363825307044]
この研究は、半教師付きスワヒリニュース分類のタスクにおいて、テキストグラフ畳み込みネットワーク(Text GCN)が従来の自然言語処理ベンチマークより優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-03-16T21:03:47Z) - Resilience of Bayesian Layer-Wise Explanations under Adversarial Attacks [3.222802562733787]
決定論的ニューラルネットワークでは,攻撃が失敗した場合でも,サリエンシ解釈が著しく脆弱であることを示す。
ベイジアンニューラルネットワークによるサリエンシの説明は, 対向的摂動下ではかなり安定していることを示す。
論文 参考訳(メタデータ) (2021-02-22T14:07:24Z) - On 1/n neural representation and robustness [13.491651740693705]
実験で観測された構造をニューラルネットワークに組み込むことで、敵の攻撃に対してより堅牢であることを示す。
本研究は,広いニューラルネットワークとカーネル手法に関する既存の理論を補完するものである。
論文 参考訳(メタデータ) (2020-12-08T20:34:49Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Proper Network Interpretability Helps Adversarial Robustness in
Classification [91.39031895064223]
本稿では,解釈の適切な測定を行うことで,予測回避攻撃が解釈の不一致を引き起こすのを防ぐことは困難であることを示す。
我々は,頑健な解釈の促進にのみ焦点をあてて,解釈可能性に配慮した防御手法を開発した。
その結果,我々の防衛力は,強靭な分類と頑健な解釈の両方を達成し,大規模な摂動攻撃に対する最先端の対人訓練方法よりも優れていた。
論文 参考訳(メタデータ) (2020-06-26T01:31:31Z) - Network Moments: Extensions and Sparse-Smooth Attacks [59.24080620535988]
ガウス入力を受ける小片方向線形(PL)ネットワーク(Affine,ReLU,Affine)の第1モーメントと第2モーメントの正確な解析式を導出する。
本研究では,新しい分散式を効率的に近似し,より厳密な分散推定を行うことを示す。
論文 参考訳(メタデータ) (2020-06-21T11:36:41Z) - Explaining Away Attacks Against Neural Networks [3.658164271285286]
画像ベースニューラルネットワークに対する敵攻撃を識別する問題について検討する。
そこで本研究では, クリーンデータと逆データに対するモデル予測における説明の相違について検討した。
本稿では,モデルによる説明に基づいて,与えられた入力が逆方向かどうかを識別できるフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-06T15:32:30Z) - S-APIR: News-based Business Sentiment Index [0.9137554315375919]
我々は、与えられたテキストのビジネス感情を予測するために、Gated Recurrent Unitsを備えたリカレントニューラルネットワーク(RNN)を採用する。
RNNは最初、Economic Watchers Surveyで訓練され、その後、ドメイン適応のためのニューステキストで微調整される。
ビジネス感情に関係のないと考えられるテキストをフィルタリングするために、一級サポートベクタマシンを適用する。
論文 参考訳(メタデータ) (2020-03-06T00:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。