論文の概要: Machine Reasoning Explainability
- arxiv url: http://arxiv.org/abs/2009.00418v2
- Date: Tue, 1 Dec 2020 17:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:47:35.940443
- Title: Machine Reasoning Explainability
- Title(参考訳): 機械推論説明可能性
- Authors: Kristijonas Cyras, Ramamurthy Badrinath, Swarup Kumar Mohalik, Anusha
Mujumdar, Alexandros Nikou, Alessandro Previti, Vaishnavi Sundararajan, Aneta
Vulgarakis Feljan
- Abstract要約: 機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
- 参考スコア(独自算出の注目度): 100.78417922186048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a field of AI, Machine Reasoning (MR) uses largely symbolic means to
formalize and emulate abstract reasoning. Studies in early MR have notably
started inquiries into Explainable AI (XAI) -- arguably one of the biggest
concerns today for the AI community. Work on explainable MR as well as on MR
approaches to explainability in other areas of AI has continued ever since. It
is especially potent in modern MR branches, such as argumentation, constraint
and logic programming, planning. We hereby aim to provide a selective overview
of MR explainability techniques and studies in hopes that insights from this
long track of research will complement well the current XAI landscape. This
document reports our work in-progress on MR explainability.
- Abstract(参考訳): aiの分野として、機械推論(mr)は抽象推論を形式化しエミュレートするために主に象徴的な手段を用いる。
初期のMRの研究は、明らかに説明可能なAI(XAI)に関する調査を開始した。
説明可能なMRと、それ以来AIの他の領域における説明可能性へのMRアプローチに取り組んできた。
これは、議論、制約、論理プログラミング、計画といった現代のmr分岐において特に強力である。
本稿では,この長期研究から得られた知見が,現在のXAIの景観をよく補完することを期待して,MR説明可能性技術と研究の選択的概要を提供する。
本報告ではMR説明可能性について概説する。
関連論文リスト
- A Mechanistic Explanatory Strategy for XAI [0.0]
本稿では,ディープラーニングシステムの機能的構造を説明するためのメカニズム的戦略を概説する。
メカニスティックアプローチによると、不透明なAIシステムの説明には、意思決定を促進するメカニズムの特定が含まれる。
この研究は、モデル組織を研究するための体系的なアプローチが、より単純な(あるいはより控えめな)説明可能性技術が欠落する可能性のある要素を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2024-11-02T18:30:32Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - Explainable AI: Definition and attributes of a good explanation for health AI [0.18846515534317265]
AIシステムが推奨する方法と理由を理解するには、内部の動作と推論プロセスに関する複雑な説明が必要になる可能性がある。
AIの可能性を完全に実現するためには、安全クリティカルなAIアプリケーションの説明に関する2つの基本的な疑問に対処することが重要である。
本研究の成果は,(1)健康AIにおける説明を構成するものの定義,(2)健康AIにおける良い説明を特徴付ける属性の包括的リストを含む。
論文 参考訳(メタデータ) (2024-09-09T16:56:31Z) - HiTZ@Antidote: Argumentation-driven Explainable Artificial Intelligence
for Digital Medicine [7.089952396422835]
AntiDOTEは、ディープラーニングプロセスの低レベル特性と人間の議論能力に適した高レベルスキームが組み合わされる、説明可能なAIという統合的なビジョンを育む。
プロジェクトの最初の成果として、Antidote CasiMedicosデータセットを公開し、一般に説明可能なAIの研究、特に医療分野における議論を促進する。
論文 参考訳(メタデータ) (2023-06-09T16:50:02Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR [2.578242050187029]
ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
論文 参考訳(メタデータ) (2021-10-02T08:48:47Z) - Explainable AI: current status and future directions [11.92436948211501]
説明可能な人工知能(XAI)は、人工知能(AI)分野における新たな研究分野である。
XAIは、AIが特定のソリューションをどのように取得したかを説明し、他の"wh"質問にも答えることができる。
本稿では,マルチメディア(テキスト,画像,音声,ビデオ)の観点から,これらの技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-12T08:42:19Z) - Dynamic Semantic Graph Construction and Reasoning for Explainable
Multi-hop Science Question Answering [50.546622625151926]
マルチホップQAのための説明可能性を得ながら,より有効な事実を活用できる新しいフレームワークを提案する。
a) tt AMR-SG,(a) tt AMR-SG,(a) tt AMR-SG,(a) tt AMR-SG,(c) グラフ畳み込みネットワーク(GCN)を利用した事実レベルの関係モデリング,(c) 推論過程の導出を行う。
論文 参考訳(メタデータ) (2021-05-25T09:14:55Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。