論文の概要: Is explainable AI a race against model complexity?
- arxiv url: http://arxiv.org/abs/2205.10119v1
- Date: Tue, 17 May 2022 09:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 06:54:08.084887
- Title: Is explainable AI a race against model complexity?
- Title(参考訳): 説明可能なAIはモデルの複雑さと競合するのか?
- Authors: Advait Sarkar
- Abstract要約: 脳のスケールモデルによって予測される全ての予測について説明できないかもしれない。
モデルは説明に先行し、モデルと説明の両方が正しくない場合でも有用である。
- 参考スコア(独自算出の注目度): 11.104666702713793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining the behaviour of intelligent systems will get increasingly and
perhaps intractably challenging as models grow in size and complexity. We may
not be able to expect an explanation for every prediction made by a brain-scale
model, nor can we expect explanations to remain objective or apolitical. Our
functionalist understanding of these models is of less advantage than we might
assume. Models precede explanations, and can be useful even when both model and
explanation are incorrect. Explainability may never win the race against
complexity, but this is less problematic than it seems.
- Abstract(参考訳): モデルのサイズと複雑さが大きくなるにつれて、インテリジェントシステムの振る舞いを説明することはますます難しくなるでしょう。
脳スケールモデルによる全ての予測に対する説明を期待できないかもしれないし、客観的または非政治的な説明を期待できないかもしれない。
これらのモデルに対する我々の機能主義的な理解は、想像以上に有利ではない。
モデルは説明に先行し、モデルと説明の両方が正しくない場合でも有用である。
説明可能性 複雑さに対してレースに勝つことは決してないかもしれないが、これは一見して問題ではない。
関連論文リスト
- Explaining Explanations in Probabilistic Logic Programming [0.0]
確率論的論理プログラミングは(知識表現のための)論理プログラミングと確率の組合せである。
この設定では、モデルは解釈可能であり、理解し易いと言うことができる。
本稿では,クエリ駆動推論機構の定義に基づく説明手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T14:27:37Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Interpretability in the Wild: a Circuit for Indirect Object
Identification in GPT-2 small [68.879023473838]
間接オブジェクト識別 (IOI) と呼ばれる自然言語タスクにおいて, GPT-2 の小型化が果たす役割について解説する。
我々の知る限り、この調査は言語モデルにおいて「野生」の自然な振る舞いをリバースエンジニアリングする最大のエンドツーエンドの試みである。
論文 参考訳(メタデータ) (2022-11-01T17:08:44Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Interpretable Models in ANNs [5.17900889163564]
例えば物理学の法則では、このパターンは比較的単純な数学的表現によって記述することができる。
本稿では,ネットワークの説明方法を見つけ,そのモデルを記述する人間可読方程式を抽出する。
論文 参考訳(メタデータ) (2020-11-24T22:09:10Z) - Model Interpretability through the Lens of Computational Complexity [1.6631602844999724]
民間の解釈可能性主張が計算複雑性理論に相関しているかどうかを考察する。
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
論文 参考訳(メタデータ) (2020-10-23T09:50:40Z) - Explainable AI without Interpretable Model [0.0]
AIシステムが、結果の背後にある理由をエンドユーザに説明できることは、これまで以上に重要になっています。
ほとんどの説明可能なAI(XAI)メソッドは、説明を作成するのに使用できる解釈可能なモデルを抽出することに基づいている。
本論文では,文脈的重要性と実用性(CIU)の概念により,ブラックボックスの結果の人間的な説明を直接生成することが可能となる。
論文 参考訳(メタデータ) (2020-09-29T13:29:44Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Don't Explain without Verifying Veracity: An Evaluation of Explainable
AI with Video Activity Recognition [24.10997778856368]
本稿では,知的システムにおけるユーザパフォーマンスと合意の妥当性がいかに影響するかを考察する。
ビデオレビューと問合せ作業における説明精度のばらつきを比較した。
その結果,信頼性の低い説明がユーザパフォーマンスと合意を著しく低下させることが示唆された。
論文 参考訳(メタデータ) (2020-05-05T17:06:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。