論文の概要: Social Construction of XAI: Do We Need One Definition to Rule Them All?
- arxiv url: http://arxiv.org/abs/2211.06499v1
- Date: Fri, 11 Nov 2022 22:32:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 19:26:48.383789
- Title: Social Construction of XAI: Do We Need One Definition to Rule Them All?
- Title(参考訳): XAIの社会構築 : すべてを決めるには1つの定義が必要であるか?
- Authors: Upol Ehsan, Mark O. Riedl
- Abstract要約: 我々は、XAIの現段階で、XAIの特異な定義が実現不可能で、望ましくない理由を論じる。
多重解釈を早すぎると、標準化(クロージャ)を強制することはイノベーションを阻害し、早めの結論につながる。
定義的なコンセンサスを待つことなく,XAI の進歩のために多元主義を活用する方法を共有します。
- 参考スコア(独自算出の注目度): 18.14698948294366
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There is a growing frustration amongst researchers and developers in
Explainable AI (XAI) around the lack of consensus around what is meant by
'explainability'. Do we need one definition of explainability to rule them all?
In this paper, we argue why a singular definition of XAI is neither feasible
nor desirable at this stage of XAI's development. We view XAI through the
lenses of Social Construction of Technology (SCOT) to explicate how diverse
stakeholders (relevant social groups) have different interpretations
(interpretative flexibility) that shape the meaning of XAI. Forcing a
standardization (closure) on the pluralistic interpretations too early can
stifle innovation and lead to premature conclusions. We share how we can
leverage the pluralism to make progress in XAI without having to wait for a
definitional consensus.
- Abstract(参考訳): 説明可能なAI(XAI)の研究者や開発者の間では、"説明可能性"が意味するものに関するコンセンサスの欠如に不満が広がっている。
すべてを支配するには説明可能性の定義は1つ必要か?
本稿では,XAI の現段階では,XAI の特異な定義が実現不可能で,望ましくない理由を論じる。
我々は、XAIが社会構築技術(SCOT)のレンズを通して、XAIの意味を形成する多様な利害関係者(関連する社会グループ)がどのように異なる解釈(解釈柔軟性)を持っているかを明らかにする。
標準化(クロージャー)を多元的解釈に早すぎるとイノベーションを阻害し、早期の結論につながる。
定義的なコンセンサスを待つことなく,XAI の進歩のために多元主義を活用する方法を共有します。
関連論文リスト
- Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - Axe the X in XAI: A Plea for Understandable AI [0.0]
私は、XAI文献で現在使われている説明可能性の概念は、従来の科学的説明の概念とほとんど類似していないと論じる。
XAIの目標と目的を取り巻く混乱を避けるために、"理解可能なAI"というラベルを使用することは、より実りあることでしょう。
論文 参考訳(メタデータ) (2024-03-01T06:28:53Z) - Does Explainable AI Have Moral Value? [0.0]
説明可能なAI(XAI)は、複雑なアルゴリズムシステムと人間の利害関係者のギャップを埋めることを目的としている。
現在の談話では、XAIを技術ツール、ユーザインターフェース、あるいはポリシーメカニズムとして独立して検討することが多い。
本稿では,道徳的義務と相互性の概念を基盤とした統一的倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2023-11-05T15:59:27Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A Means-End Account of Explainable Artificial Intelligence [0.0]
XAIは機械学習の手法について不透明な説明を求めている。
著者は、説明すべきもの(トピック)、説明すべきもの(ステークホルダ)、説明すべきもの(インストラクション)、説明すべきもの(ゴール)について意見が一致しない。
論文 参考訳(メタデータ) (2022-08-09T09:57:42Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR [2.578242050187029]
ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
論文 参考訳(メタデータ) (2021-10-02T08:48:47Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。