論文の概要: G\"odel's Sentence Is An Adversarial Example But Unsolvable
- arxiv url: http://arxiv.org/abs/2002.10703v1
- Date: Tue, 25 Feb 2020 07:20:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:25:24.181764
- Title: G\"odel's Sentence Is An Adversarial Example But Unsolvable
- Title(参考訳): G\"odelの文は逆の例だが解決できない
- Authors: Xiaodong Qi, Lansheng Han
- Abstract要約: 敵の例が存在する理由を示す。
真で証明可能な2つの自然な説明に対して、G"odel's sentence は逆例であるが、決定不能である。
敵の例に対する計算不可能性を証明しますが、それは認識不能です。
- 参考スコア(独自算出の注目度): 1.261852738790008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, different types of adversarial examples from different
fields have emerged endlessly, including purely natural ones without
perturbations. A variety of defenses are proposed and then broken quickly. Two
fundamental questions need to be asked: What's the reason for the existence of
adversarial examples and are adversarial examples unsolvable? In this paper, we
will show the reason for the existence of adversarial examples is there are
non-isomorphic natural explanations that can all explain data set.
Specifically, for two natural explanations of being true and provable,
G\"odel's sentence is an adversarial example but ineliminable. It can't be
solved by the re-accumulation of data set or the re-improvement of learning
algorithm. Finally, from the perspective of computability, we will prove the
incomputability for adversarial examples, which are unrecognizable.
- Abstract(参考訳): 近年では、純粋に摂動のない自然の例など、異なる分野の敵対的な例が無限に出現している。
様々な防御策が提案され、すぐに壊れる。
敵の例が存在する理由と、敵の例が解決できない理由は何ですか?
本稿では,逆例が存在する理由として,データセットを説明できる非同型自然説明が存在することを挙げる。
具体的には、真で証明可能な2つの自然な説明に対して、G\"odel's sentenceは逆例であるが、決定不能である。
データセットの再蓄積や学習アルゴリズムの再改善によっては解決できない。
最後に、計算可能性の観点からは、認識できない敵の例に対する非計算性を証明する。
関連論文リスト
- Generation from Noisy Examples [2.3020018305241337]
生成性は、有限個のノイズのある例の存在によってほとんど影響を受けないことが示される。
有限類と可算類に対して、生成性は有限個のノイズのある例の存在によってほとんど影響を受けないことを示す。
論文 参考訳(メタデータ) (2025-01-07T23:16:14Z) - Axiomatic Characterisations of Sample-based Explainers [8.397730500554047]
サンプルやデータセットから特徴に基づく説明を生成する説明を精査する。
我々は、他のすべてと互換性のある2つの重要な特性を満たす説明者のファミリー全体を識別する。
我々は、説明の存在と不確実なグローバル整合性を保証する最初の(広義の)説明者を紹介する。
論文 参考訳(メタデータ) (2024-08-09T07:10:07Z) - Towards Non-Adversarial Algorithmic Recourse [20.819764720587646]
反実的な説明とは対照的に、敵対的な例は、それらが根底的な真実よりも誤分類につながるという独特の特徴を持っていると論じられている。
本稿では,非対人的アルゴリズムの議論を紹介するとともに,高い状況下では,対人的特徴を示さない対実的説明を得ることが不可欠である理由を概説する。
論文 参考訳(メタデータ) (2024-03-15T14:18:21Z) - Frontier Language Models are not Robust to Adversarial Arithmetic, or
"What do I need to say so you agree 2+2=5? [88.59136033348378]
言語モデルアライメントのための単純なテストベッドを提供する逆算術の問題を考察する。
この問題は自然言語で表される算術的な問題から成り、質問が完了する前に任意の逆文字列を挿入する。
これらの攻撃に対して、強化学習やエージェント構成ループを通じて、モデルを部分的に強化できることが示される。
論文 参考訳(メタデータ) (2023-11-08T19:07:10Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Explaining Latent Representations with a Corpus of Examples [72.50996504722293]
本稿では,サンプルベースの説明を自由に選択されたサンプル集合を参照して提供するユーザ中心の手法であるSimplExを提案する。
SimplExは、ポストホックな説明で潜伏空間に対するユーザの理解を改善するためにコーパスを使用する。
SimplExは,モデル表現を説明するコーパス内の関連パターンを強調表示することで,ユーザを力づけることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:59:06Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Semantics and explanation: why counterfactual explanations produce
adversarial examples in deep neural networks [15.102346715690759]
説明可能なAIに関する最近の論文は、対実的な説明のモードを説得力あるものにしている。
反事実的説明はいくつかのケースでは極めて効果的であるように見えるが、正式には敵の例と等価である。
この2つの手順が公式に同値であるならば、反事実的な説明と敵対的な例の間に明らかな説明分割にはどのような意味があるのでしょうか?
このパラドックスは、反事実表現の意味論に重きを置くことで解決する。
論文 参考訳(メタデータ) (2020-12-18T07:04:04Z) - Verifying Tree Ensembles by Reasoning about Potential Instances [25.204157642042627]
本稿では,問題の簡易化を問う質問に対して,入力空間の一部を具現化できる戦略を提案する。
次に、インクリメンタルで、常に答えを返すことのできる、分割と征服のアプローチに従います。
このアプローチの有用性は、さまざまなユースケースのセットで示されています。
論文 参考訳(メタデータ) (2020-01-31T15:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。