論文の概要: G\"odel's Sentence Is An Adversarial Example But Unsolvable
- arxiv url: http://arxiv.org/abs/2002.10703v1
- Date: Tue, 25 Feb 2020 07:20:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:25:24.181764
- Title: G\"odel's Sentence Is An Adversarial Example But Unsolvable
- Title(参考訳): G\"odelの文は逆の例だが解決できない
- Authors: Xiaodong Qi, Lansheng Han
- Abstract要約: 敵の例が存在する理由を示す。
真で証明可能な2つの自然な説明に対して、G"odel's sentence は逆例であるが、決定不能である。
敵の例に対する計算不可能性を証明しますが、それは認識不能です。
- 参考スコア(独自算出の注目度): 1.261852738790008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, different types of adversarial examples from different
fields have emerged endlessly, including purely natural ones without
perturbations. A variety of defenses are proposed and then broken quickly. Two
fundamental questions need to be asked: What's the reason for the existence of
adversarial examples and are adversarial examples unsolvable? In this paper, we
will show the reason for the existence of adversarial examples is there are
non-isomorphic natural explanations that can all explain data set.
Specifically, for two natural explanations of being true and provable,
G\"odel's sentence is an adversarial example but ineliminable. It can't be
solved by the re-accumulation of data set or the re-improvement of learning
algorithm. Finally, from the perspective of computability, we will prove the
incomputability for adversarial examples, which are unrecognizable.
- Abstract(参考訳): 近年では、純粋に摂動のない自然の例など、異なる分野の敵対的な例が無限に出現している。
様々な防御策が提案され、すぐに壊れる。
敵の例が存在する理由と、敵の例が解決できない理由は何ですか?
本稿では,逆例が存在する理由として,データセットを説明できる非同型自然説明が存在することを挙げる。
具体的には、真で証明可能な2つの自然な説明に対して、G\"odel's sentenceは逆例であるが、決定不能である。
データセットの再蓄積や学習アルゴリズムの再改善によっては解決できない。
最後に、計算可能性の観点からは、認識できない敵の例に対する非計算性を証明する。
関連論文リスト
- Frontier Language Models are not Robust to Adversarial Arithmetic, or
"What do I need to say so you agree 2+2=5? [88.59136033348378]
言語モデルアライメントのための単純なテストベッドを提供する逆算術の問題を考察する。
この問題は自然言語で表される算術的な問題から成り、質問が完了する前に任意の逆文字列を挿入する。
これらの攻撃に対して、強化学習やエージェント構成ループを通じて、モデルを部分的に強化できることが示される。
論文 参考訳(メタデータ) (2023-11-08T19:07:10Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Explaining Latent Representations with a Corpus of Examples [72.50996504722293]
本稿では,サンプルベースの説明を自由に選択されたサンプル集合を参照して提供するユーザ中心の手法であるSimplExを提案する。
SimplExは、ポストホックな説明で潜伏空間に対するユーザの理解を改善するためにコーパスを使用する。
SimplExは,モデル表現を説明するコーパス内の関連パターンを強調表示することで,ユーザを力づけることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:59:06Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z) - "I'm Not Mad": Commonsense Implications of Negation and Contradiction [41.2623848577406]
本稿では,否定文と矛盾文の常識的含意に着目した最初の総合研究を行う。
我々は624Kのif-thenルールを持つ新しいコモンセンス知識グラフであるANION1を紹介する。
論文 参考訳(メタデータ) (2021-04-13T20:51:46Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Semantics and explanation: why counterfactual explanations produce
adversarial examples in deep neural networks [15.102346715690759]
説明可能なAIに関する最近の論文は、対実的な説明のモードを説得力あるものにしている。
反事実的説明はいくつかのケースでは極めて効果的であるように見えるが、正式には敵の例と等価である。
この2つの手順が公式に同値であるならば、反事実的な説明と敵対的な例の間に明らかな説明分割にはどのような意味があるのでしょうか?
このパラドックスは、反事実表現の意味論に重きを置くことで解決する。
論文 参考訳(メタデータ) (2020-12-18T07:04:04Z) - Dependency Decomposition and a Reject Option for Explainable Models [4.94950858749529]
近年のディープラーニングモデルは様々な推論タスクにおいて非常によく機能する。
最近の進歩は特徴を視覚化し、入力の属性を記述する方法を提供します。
本稿では, 目的の画像分類出力に対する確率分布に関する依存性を初めて解析する。
論文 参考訳(メタデータ) (2020-12-11T17:39:33Z) - On abstract F-systems. A graph-theoretic model for paradoxes involving a
falsity predicate and its application to argumentation frameworks [0.0]
F-システム(F-systems)は、他の文の虚偽を述語する文をモデル化できるダイグラフである。
本稿では,表現された文が表現される言語の特徴をすべて抽象化するF-systemsモデルを提案する。
論文 参考訳(メタデータ) (2020-05-14T15:07:11Z) - Verifying Tree Ensembles by Reasoning about Potential Instances [25.204157642042627]
本稿では,問題の簡易化を問う質問に対して,入力空間の一部を具現化できる戦略を提案する。
次に、インクリメンタルで、常に答えを返すことのできる、分割と征服のアプローチに従います。
このアプローチの有用性は、さまざまなユースケースのセットで示されています。
論文 参考訳(メタデータ) (2020-01-31T15:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。