論文の概要: Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective
- arxiv url: http://arxiv.org/abs/2311.02237v1
- Date: Fri, 3 Nov 2023 20:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 18:44:46.727645
- Title: Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective
- Title(参考訳): 文化遺産における説明可能な著者識別--新しい視点の分析
- Authors: Mattia Setzu and Silvia Corbara and Anna Monreale and Alejandro Moreo
and Fabrizio Sebastiani
- Abstract要約: 既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
- 参考スコア(独自算出の注目度): 48.031678295495574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While a substantial amount of work has recently been devoted to enhance the
performance of computational Authorship Identification (AId) systems, little to
no attention has been paid to endowing AId systems with the ability to explain
the reasons behind their predictions. This lacking substantially hinders the
practical employment of AId methodologies, since the predictions returned by
such systems are hardly useful unless they are supported with suitable
explanations. In this paper, we explore the applicability of existing
general-purpose eXplainable Artificial Intelligence (XAI) techniques to AId,
with a special focus on explanations addressed to scholars working in cultural
heritage. In particular, we assess the relative merits of three different types
of XAI techniques (feature ranking, probing, factuals and counterfactual
selection) on three different AId tasks (authorship attribution, authorship
verification, same-authorship verification) by running experiments on real AId
data. Our analysis shows that, while these techniques make important first
steps towards explainable Authorship Identification, more work remains to be
done in order to provide tools that can be profitably integrated in the
workflows of scholars.
- Abstract(参考訳): 近年,aid (computation authorship identification) システムの性能向上に多くの研究が費やされているが,その背景にある理由を説明できるような援助システムの実現には,ほとんど注意が払われていない。
このようなシステムによって返される予測は、適切な説明が得られない限り、ほとんど役に立たないため、AId方法論の実践的利用を著しく妨げている。
本稿では,既存の汎用説明可能な人工知能 (xai) 技術の適用可能性について検討し,文化遺産に携わる研究者への説明に焦点をあてた。
特に, 3つの異なる支援課題(著者属性, 著者性検証, 同一著者性検証)に対する3つの異なるxai手法(特徴ランキング, 調査, 事実性, 反事実選択)の相対的メリットを, 実支援データを用いた実験によって評価した。
分析の結果,これらの手法は,著者名同定に重要な第一歩を踏み出すが,研究者のワークフローにうまく統合できるツールを提供するためには,さらに多くの作業が必要となることがわかった。
関連論文リスト
- SyROCCo: Enhancing Systematic Reviews using Machine Learning [6.805429133535976]
本稿では,システムレビュープロセスのナビゲートを支援する機械学習技術について検討する。
データ抽出やエビデンスマッピングといったレビューのその後の段階へのML技術の適用は、その初期段階にある。
論文 参考訳(メタデータ) (2024-06-24T11:04:43Z) - A Systematic Literature Review on Explainability for Machine/Deep
Learning-based Software Engineering Research [23.966640472958105]
本稿では,ソフトウェア工学の文脈におけるAIモデルの説明可能性の向上を目的とした,体系的な文献レビューを行う。
我々は,XAI技術がこれまで成功してきたSEタスク,(2)異なるXAI手法の分類と分析,(3)既存の評価手法を考察することを目的としている。
論文 参考訳(メタデータ) (2024-01-26T03:20:40Z) - Strategies to exploit XAI to improve classification systems [0.0]
XAIは、AIモデルの意思決定プロセスに関する洞察を提供することを目的としている。
ほとんどのXAI文献は、AIシステムを説明する方法に焦点を当てているが、AIシステムを改善するためにXAIメソッドをどのように活用するかについては、あまり注目されていない。
論文 参考訳(メタデータ) (2023-06-09T10:38:26Z) - Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study [0.0]
本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:52:09Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Let's Go to the Alien Zoo: Introducing an Experimental Framework to
Study Usability of Counterfactual Explanations for Machine Learning [6.883906273999368]
反事実的説明(CFEs)は、心理的に根拠づけられたアプローチとして、ポストホックな説明を生み出している。
私たちは、エンゲージメントがあり、Webベースでゲームに触発された実験的なフレームワークであるAlien Zooを紹介します。
概念実証として,本手法の有効性と実用性を示す。
論文 参考訳(メタデータ) (2022-05-06T17:57:05Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - AR-LSAT: Investigating Analytical Reasoning of Text [57.1542673852013]
テキストの分析的推論の課題を研究し、1991年から2016年までのロースクール入学試験からの質問からなる新しいデータセットを紹介します。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
論文 参考訳(メタデータ) (2021-04-14T02:53:32Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。