論文の概要: LioNets: A Neural-Specific Local Interpretation Technique Exploiting
Penultimate Layer Information
- arxiv url: http://arxiv.org/abs/2104.06057v1
- Date: Tue, 13 Apr 2021 09:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:41:55.680748
- Title: LioNets: A Neural-Specific Local Interpretation Technique Exploiting
Penultimate Layer Information
- Title(参考訳): LioNets: 暗黙の層情報を爆発させるニューラルネットワーク特有な局所解釈技術
- Authors: Ioannis Mollas, Nick Bassiliades, Grigorios Tsoumakas
- Abstract要約: 解釈可能な機械学習(IML)は研究の緊急のトピックである。
本稿では,テキストデータと時系列データに適用される局所的,神経特異的な解釈プロセスに焦点を当てる。
- 参考スコア(独自算出の注目度): 6.570220157893279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) has a tremendous impact on the unexpected growth
of technology in almost every aspect. AI-powered systems are monitoring and
deciding about sensitive economic and societal issues. The future is towards
automation, and it must not be prevented. However, this is a conflicting
viewpoint for a lot of people, due to the fear of uncontrollable AI systems.
This concern could be reasonable if it was originating from considerations
associated with social issues, like gender-biased, or obscure decision-making
systems. Explainable AI (XAI) is recently treated as a huge step towards
reliable systems, enhancing the trust of people to AI. Interpretable machine
learning (IML), a subfield of XAI, is also an urgent topic of research. This
paper presents a small but significant contribution to the IML community,
focusing on a local-based, neural-specific interpretation process applied to
textual and time-series data. The proposed methodology introduces new
approaches to the presentation of feature importance based interpretations, as
well as the production of counterfactual words on textual datasets. Eventually,
an improved evaluation metric is introduced for the assessment of
interpretation techniques, which supports an extensive set of qualitative and
quantitative experiments.
- Abstract(参考訳): 人工知能(AI)は、ほぼあらゆる面でテクノロジーの予期せぬ成長に大きな影響を与えている。
AIを利用したシステムは、繊細な経済問題と社会問題を監視し、決定している。
未来は自動化に向かっており、それを妨げてはならない。
しかし、制御不能なAIシステムを恐れている多くの人にとって、これは矛盾する視点である。
この懸念は、性別偏差や不明瞭な意思決定システムなど、社会問題に関連する考慮から生まれたものであるならば合理的である。
説明可能なAI(XAI)は最近、信頼できるシステムへの大きなステップとして扱われ、AIに対する人々の信頼を高めている。
XAIのサブフィールドである解釈可能な機械学習(IML)も研究の緊急の課題である。
本稿では,テキストおよび時系列データに適用された局所的,ニューラルネットワーク固有の解釈プロセスに着目し,IMLコミュニティへの小さな貢献について述べる。
提案手法では,特徴重要度に基づく解釈の提示に対する新たなアプローチと,テキストデータセット上での対実語の生成を提案する。
最終的に、分析手法の評価のために改良された評価基準を導入し、定性的かつ定量的な実験の広範なセットをサポートする。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - It is not "accuracy vs. explainability" -- we need both for trustworthy
AI systems [0.0]
私たちは、AI技術が医療、ビジネス、交通、日常生活の多くの側面に影響を与えつつある、AI経済と社会の出現を目撃しています。
しかし、AIシステムはエラーを発生させ、バイアスを示し、データのノイズに敏感になり、しばしば技術的および司法的透明性が欠如し、その採用における信頼と課題が減少する可能性がある。
これらの最近の欠点や懸念は、科学的に記録されているだけでなく、自動運転車による事故、医療の偏見、有色人種のための雇用と顔認識システムなど、一般的な報道でも報告されている。
論文 参考訳(メタデータ) (2022-12-16T23:33:10Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Interpretability and accessibility of machine learning in selected food
processing, agriculture and health applications [0.0]
MLベースのシステムの解釈可能性の欠如は、これらの強力なアルゴリズムの普及の大きな障害である。
自動モデル設計によるMLアクセシビリティ向上のために、新たなテクニックが登場している。
本稿では,グローバル問題における機械学習の解釈可能性とアクセシビリティ向上に向けた取り組みについて概説する。
論文 参考訳(メタデータ) (2022-11-30T02:44:13Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - An Objective Metric for Explainable AI: How and Why to Estimate the
Degree of Explainability [3.04585143845864]
本稿では, 客観的手法を用いて, 正しい情報のeX説明可能性の度合いを測定するための, モデルに依存しない新しい指標を提案する。
私たちは、医療とファイナンスのための2つの現実的なAIベースのシステムについて、いくつかの実験とユーザースタディを設計しました。
論文 参考訳(メタデータ) (2021-09-11T17:44:13Z) - Knowledge-intensive Language Understanding for Explainable AI [9.541228711585886]
AIが主導する意思決定の仕方と、どの決定要因が含まれているかを理解することが不可欠である。
意思決定に直接関係する人間中心の説明を持つことは重要である。
人間が理解し、使用する明示的なドメイン知識を巻き込む必要がある。
論文 参考訳(メタデータ) (2021-08-02T21:12:30Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。