論文の概要: MAIR: Framework for mining relationships between research articles,
strategies, and regulations in the field of explainable artificial
intelligence
- arxiv url: http://arxiv.org/abs/2108.06216v1
- Date: Thu, 29 Jul 2021 20:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-22 14:36:05.800801
- Title: MAIR: Framework for mining relationships between research articles,
strategies, and regulations in the field of explainable artificial
intelligence
- Title(参考訳): MAIR: 説明可能な人工知能分野における研究論文・戦略・規制間の関係調査のための枠組み
- Authors: Stanis{\l}aw Gizinski, Micha{\l} Kuzba, Bartosz Pielinski, Julian
Sienkiewicz, Stanis{\l}aw {\L}aniewski, Przemys{\l}aw Biecek
- Abstract要約: 研究論文やAI関連の政策に対する規制の影響のダイナミクスを理解することが不可欠である。
本稿では,AI関連政策文書とXAI研究論文の共同分析のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.280298858971133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing number of AI applications, also for high-stake decisions,
increases the interest in Explainable and Interpretable Machine Learning
(XI-ML). This trend can be seen both in the increasing number of regulations
and strategies for developing trustworthy AI and the growing number of
scientific papers dedicated to this topic. To ensure the sustainable
development of AI, it is essential to understand the dynamics of the impact of
regulation on research papers as well as the impact of scientific discourse on
AI-related policies. This paper introduces a novel framework for joint analysis
of AI-related policy documents and eXplainable Artificial Intelligence (XAI)
research papers. The collected documents are enriched with metadata and
interconnections, using various NLP methods combined with a methodology
inspired by Institutional Grammar. Based on the information extracted from
collected documents, we showcase a series of analyses that help understand
interactions, similarities, and differences between documents at different
stages of institutionalization. To the best of our knowledge, this is the first
work to use automatic language analysis tools to understand the dynamics
between XI-ML methods and regulations. We believe that such a system
contributes to better cooperation between XAI researchers and AI policymakers.
- Abstract(参考訳): 高度な意思決定のためのAIアプリケーションの増加は、説明可能かつ解釈可能な機械学習(XI-ML)への関心を高めている。
この傾向は、信頼できるAIを開発するための規制や戦略の数の増加と、このトピックに特化した科学論文の数の増加の両方で見ることができる。
AIの持続可能な開発を保証するためには、研究論文に対する規制の影響のダイナミクスと、AI関連の政策に対する科学的言説の影響を理解することが不可欠である。
本稿では,AI関連政策文書とeXplainable Artificial Intelligence(XAI)研究論文の共同分析のための新しいフレームワークを提案する。
収集された文書にはメタデータと相互接続が組み込まれており、様々なNLP手法とInstitutional Grammarにインスパイアされた方法論が組み合わされている。
収集した文書から抽出した情報に基づいて, 組織化の異なる段階における文書間の相互作用, 類似性, 差異を理解するための一連の分析結果を紹介する。
私たちの知る限りでは、XI-MLメソッドとレギュレーションの間のダイナミクスを理解するために、自動言語分析ツールを使用する最初の作業である。
このようなシステムは、xai研究者とaiポリシメーカの協力向上に寄与すると考えています。
関連論文リスト
- Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - Multimodality of AI for Education: Towards Artificial General
Intelligence [14.121655991753483]
マルチモーダル人工知能(AI)アプローチは、教育的文脈における人工知能(AGI)の実現に向けた道を歩んでいる。
この研究は、認知フレームワーク、高度な知識表現、適応学習機構、多様なマルチモーダルデータソースの統合など、AGIの重要な側面を深く掘り下げている。
本稿は、AGI開発における今後の方向性と課題に関する洞察を提供する、教育におけるマルチモーダルAIの役割の意味についても論じる。
論文 参考訳(メタデータ) (2023-12-10T23:32:55Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - On the Evolution of A.I. and Machine Learning: Towards a Meta-level
Measuring and Understanding Impact, Influence, and Leadership at Premier A.I.
Conferences [0.26999000177990923]
我々は、過去数十年間、AIと機械学習研究者の影響力、影響力、リーダーシップの分析を可能にする手段を提示する。
我々は,1969年に開催された第1回IJCAI(International Joint Conference on Artificial Intelligence)以降,AIと機械学習のフラッグシップカンファレンスで発表された論文について検討する。
論文 参考訳(メタデータ) (2022-05-26T03:41:12Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - Measuring Ethics in AI with AI: A Methodology and Dataset Construction [1.6861004263551447]
我々は、AI技術のこのような新しい機能を使用して、AI測定能力を増強することを提案する。
我々は倫理的問題や関心事に関連する出版物を分類するモデルを訓練する。
私たちは、AIメトリクス、特に信頼できる公正なAIベースのツールや技術開発への彼らの貢献の意味を強調します。
論文 参考訳(メタデータ) (2021-07-26T00:26:12Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explaining Relationships Between Scientific Documents [55.23390424044378]
本稿では,2つの学術文書間の関係を自然言語テキストを用いて記述する課題に対処する。
本稿では154K文書から622Kサンプルのデータセットを作成する。
論文 参考訳(メタデータ) (2020-02-02T03:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。