論文の概要: A Survey of the Various Methodologies Towards making Artificial
Intelligence More Explainable
- arxiv url: http://arxiv.org/abs/2311.02291v1
- Date: Sat, 4 Nov 2023 01:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 18:36:24.119281
- Title: A Survey of the Various Methodologies Towards making Artificial
Intelligence More Explainable
- Title(参考訳): 人工知能をより説明しやすいものにするための各種手法に関する調査研究
- Authors: Sopam Dasgupta
- Abstract要約: マシンによる意思決定の推論の背後には、明確性の必要性がある。
私の研究は、説明可能性/解釈可能性と、それが反現実的思考にどのように広がるかに焦点を当てています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machines are being increasingly used in decision-making processes, resulting
in the realization that decisions need explanations. Unfortunately, an
increasing number of these deployed models are of a 'black-box' nature where
the reasoning behind the decisions is unknown. Hence, there is a need for
clarity behind the reasoning of these decisions. As humans, we would want these
decisions to be presented to us in an explainable manner. However, explanations
alone are insufficient. They do not necessarily tell us how to achieve an
outcome but merely tell us what achieves the given outcome. For this reason, my
research focuses on explainability/interpretability and how it extends to
counterfactual thinking.
- Abstract(参考訳): マシンは意思決定プロセスでますます使われており、意思決定には説明が必要だという認識が生まれる。
残念ながら、これらのデプロイされたモデルの増加は、決定の背後にある理由が不明な'ブラックボックス'な性質である。
したがって、これらの決定の理由は明確である必要がある。
人間として、私たちはこれらの決定を説明可能な方法で提示したいと考えています。
しかし、説明だけでは不十分である。
必ずしも結果を達成する方法を伝えるのではなく、与えられた結果を達成する方法を伝えるのです。
この理由から,本研究は,説明可能性/解釈可能性と,それが反事実的思考にどのように広がるかに注目した。
関連論文リスト
- Contrastive Explanations That Anticipate Human Misconceptions Can Improve Human Decision-Making Skills [24.04643864795939]
人々の意思決定能力は、意思決定支援にAIに頼ると、しばしば改善に失敗する。
ほとんどのAIシステムは、AIの決定を正当化する一方的な説明を提供するが、ユーザーの思考を考慮しない。
我々は、AIの選択と予測された、おそらく人間の選択との違いを説明する、人間中心のコントラスト的な説明を生成するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2024-10-05T18:21:04Z) - Delivering Inflated Explanations [17.646704122091087]
説明可能性に関する正式なアプローチは、AIシステムの正式なモデルを構築します。
正式な帰納的説明は、与えられた値を取ると、常に同じ決定を下すような一連の特徴である。
本稿では,特徴の集合である膨らんだ説明と値の集合の各特徴について,その決定が変わらないように定義する。
論文 参考訳(メタデータ) (2023-06-27T07:54:18Z) - Explainable AI is Dead, Long Live Explainable AI! Hypothesis-driven
decision support [4.452019519213712]
我々は、現在の説明可能な人工知能(XAI)モデルからのパラダイムシフトを議論する。
早期意思決定支援システムでは、人々に推奨を与え、それらを考慮し、必要なときにそれに従うことができると仮定した。
論文 参考訳(メタデータ) (2023-02-24T01:33:25Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - An Argumentation-based Approach for Explaining Goal Selection in
Intelligent Agents [0.0]
知的エージェントは、仮定可能な目標のセットを生成し、そのどれが達成にコミットするかを選択します。
目標選択の文脈では、エージェントは、特定の目標を選択する(または選択しない)ための推論パスを説明することができるべきである。
本稿では, 部分的説明と完全説明という2種類の説明法と, 擬似自然説明を生成するための説明法を提案する。
論文 参考訳(メタデータ) (2020-09-14T01:10:13Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。