論文の概要: Unit Testing for Concepts in Neural Networks
- arxiv url: http://arxiv.org/abs/2208.10244v1
- Date: Thu, 28 Jul 2022 08:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-28 22:27:06.942808
- Title: Unit Testing for Concepts in Neural Networks
- Title(参考訳): ニューラルネットワークの概念に対する単体テスト
- Authors: Charles Lovering and Ellie Pavlick
- Abstract要約: 本稿では,システムの動作がFodorの基準と一致しているかどうかを評価するためのユニットテストを提案する。
モデルが基礎性、モジュラリティ、概念の再使用性のテストで成功することは分かっていますが、因果性に関する重要な疑問は未解決のままです。
- 参考スコア(独自算出の注目度): 20.86261546611472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many complex problems are naturally understood in terms of symbolic concepts.
For example, our concept of "cat" is related to our concepts of "ears" and
"whiskers" in a non-arbitrary way. Fodor (1998) proposes one theory of
concepts, which emphasizes symbolic representations related via constituency
structures. Whether neural networks are consistent with such a theory is open
for debate. We propose unit tests for evaluating whether a system's behavior is
consistent with several key aspects of Fodor's criteria. Using a simple visual
concept learning task, we evaluate several modern neural architectures against
this specification. We find that models succeed on tests of groundedness,
modularlity, and reusability of concepts, but that important questions about
causality remain open. Resolving these will require new methods for analyzing
models' internal states.
- Abstract(参考訳): 多くの複雑な問題は、自然に象徴的な概念として理解される。
例えば、"cat"という概念は、"ears" や "whiskers" という概念と非アービタリーな方法で関連しています。
Fodor (1998) は概念の1つの理論を提案し、これは選挙区構造を通して関連する記号表現を強調する。
ニューラルネットワークがそのような理論と一致するかどうかは議論の余地がある。
本稿では,システムの動作がfodorの基準のいくつかの重要な側面と一致しているかを評価するためのユニットテストを提案する。
単純な視覚的概念学習タスクを用いて、この仕様に対して現代のニューラルアーキテクチャを評価した。
モデルは着地性、モジュラリティ、概念の再利用性テストで成功するが、因果性に関する重要な疑問は依然として開かれている。
これらを解決するには、モデルの内部状態を分析する新しい方法が必要となる。
関連論文リスト
- LLM-assisted Concept Discovery: Automatically Identifying and Explaining Neuron Functions [15.381209058506078]
以前の研究は、概念の例や事前に定義された概念のセットに基づいて、ニューロンに関連づけられた概念を持っている。
本稿では,マルチモーダルな大規模言語モデルを用いて,自動的かつオープンな概念発見を提案する。
我々は,この新たな画像に対して,サンプルと反例を生成し,ニューロンの反応を評価することにより,それぞれの概念を検証する。
論文 参考訳(メタデータ) (2024-06-12T18:19:37Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - A survey on Concept-based Approaches For Model Improvement [2.1516043775965565]
概念は人間の思考基盤として知られている。
ディープニューラルネットワーク(DNN)における様々な概念表現とその発見アルゴリズムの体系的レビューと分類について述べる。
また,これらの手法を総合的に調査した最初の論文として,概念に基づくモデル改善文献について詳述する。
論文 参考訳(メタデータ) (2024-03-21T17:09:20Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Succinct Representations for Concepts [12.134564449202708]
chatGPTのようなファンデーションモデルは、様々なタスクで顕著なパフォーマンスを示している。
しかし、多くの疑問に対して、彼らは正確なように見える誤った答えを生み出すかもしれない。
本稿では,圏論に基づく概念の簡潔な表現について述べる。
論文 参考訳(メタデータ) (2023-03-01T12:11:23Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Separating Skills and Concepts for Novel Visual Question Answering [66.46070380927372]
アウト・オブ・ディストリビューションデータへの一般化は、VQA(Visual Question Answering)モデルにおいて問題となっている。
「スキル」とは、数え方や属性認識などの視覚的なタスクであり、その疑問に言及された「概念」に適用される。
モデル内でこれらの2つの要因を暗黙的に分離するスキルと概念を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T18:55:10Z) - Cause and Effect: Concept-based Explanation of Neural Networks [3.883460584034766]
ニューロンの内部表現や概念に対するニューロンの活性化を調べることで、ニューラルネットワークの解釈可能性の一歩を踏み出します。
概念(またはその否定)とタスククラスの間の因果関係の存在を確認するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-14T18:54:17Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Neuro-Symbolic Visual Reasoning: Disentangling "Visual" from "Reasoning" [49.76230210108583]
本稿では,視覚的質問応答(VQA)の推論的側面をその知覚から分離し,評価する枠組みを提案する。
また,不完全な知覚においても,モデルが推論問題に答えられるような,新しいトップダウンキャリブレーション手法を提案する。
難易度の高いGQAデータセットでは、このフレームワークがよく知られたVQAモデル間の深い非絡み合いの比較に使用される。
論文 参考訳(メタデータ) (2020-06-20T08:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。