論文の概要: On the Injunction of XAIxArt
- arxiv url: http://arxiv.org/abs/2309.06227v1
- Date: Tue, 12 Sep 2023 13:46:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 12:51:51.703997
- Title: On the Injunction of XAIxArt
- Title(参考訳): XAIxArtの接合について
- Authors: Cheshta Arora, Debarun Sarkar
- Abstract要約: この論文は、XAIxArtは人類中心の芸術概念の不セキュリティの症状であり、著者や人事機関という時代遅れの概念に戻ろうとするノスタルジックな願望である、というスタンスを採っている。
このスタンスを正当化するため、本論文では、説明の装飾モデルと説明のモデルとを、センスメイキングとして区別する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The position paper highlights the range of concerns that are engulfed in the
injunction of explainable artificial intelligence in art (XAIxArt). Through a
series of quick sub-questions, it points towards the ambiguities concerning
'explanation' and the postpositivist tradition of 'relevant explanation'.
Rejecting both 'explanation' and 'relevant explanation', the paper takes a
stance that XAIxArt is a symptom of insecurity of the anthropocentric notion of
art and a nostalgic desire to return to outmoded notions of authorship and
human agency. To justify this stance, the paper makes a distinction between an
ornamentation model of explanation to a model of explanation as sense-making.
- Abstract(参考訳): ポジションペーパーは、アートにおける説明可能な人工知能(XAIxArt)の差し迫った懸念の範囲を強調している。
一連の素早いサブクエストを通じて、「説明」に関する曖昧さと「関連する説明」というポストポジニストの伝統を指している。
論文は「説明」と「関連説明」の両方を否定し、XAIxArtは人類中心の芸術観念の不安全の症状であり、権威と人事の無秩序な概念に戻ろうとするノスタルジックな欲求であるとした。
このスタンスを正当化するために、論文は説明の装飾モデルと説明のモデルとをセンスメイキングとして区別する。
関連論文リスト
- Adding Why to What? Analyses of an Everyday Explanation [0.0]
この理論を分析的枠組みとして20のゲーム説明について検討した。
説明者はまずゲームの物理的側面(アーキテクチャ)に焦点を合わせ、その後は関連性(Relevance)の側面にのみ焦点を当てた。
両者の対応のシフトは、説明目標、出現する誤解、説明者の知識要求によって正当化された。
論文 参考訳(メタデータ) (2023-08-08T11:17:22Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - Causal Explanations and XAI [8.909115457491522]
説明可能な人工知能(XAI)の重要な目標は、説明を提供することでミスマッチを補うことである。
十分な説明と事実的説明の因果的概念を正式に定義し、さらに一歩踏み出します。
また、この研究のAIにおける公正性に対する重要性についても触れ、パス固有の反現実的公正性の概念を改善するために、実際の因果関係をどのように利用できるかを示しています。
論文 参考訳(メタデータ) (2022-01-31T12:32:10Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - XAI-P-T: A Brief Review of Explainable Artificial Intelligence from
Practice to Theory [0.0]
我々は、いくつかの基礎文献で特定された説明可能なAI(XAI)の実践的および理論的側面を報告する。
まず,ブラックボックス説明のカテゴリに注目し,実例を示す。
後に、理論的な説明が多分野分野にどのように根ざしたのかを議論する。
論文 参考訳(メタデータ) (2020-12-17T14:51:08Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。