論文の概要: Explainable History Distillation by Marked Temporal Point Process
- arxiv url: http://arxiv.org/abs/2311.07797v1
- Date: Mon, 13 Nov 2023 23:15:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 16:09:08.055925
- Title: Explainable History Distillation by Marked Temporal Point Process
- Title(参考訳): マーク付き時間点法による説明可能な歴史蒸留
- Authors: Sishun Liu, Ke Deng, Yan Wang, Xiuzhen Zhang
- Abstract要約: 我々は,acrfulltppに基づいて,glscaによって発生した事象の説明を自動的に生成する機械学習システムを構築した。
RetweetとStackOverflowデータセットの実験結果は、acrshortmodelが他のacrshortehdベースラインを大幅に上回っていることを証明している。
- 参考スコア(独自算出の注目度): 10.960052855889144
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Explainability of machine learning models is mandatory when researchers
introduce these commonly believed black boxes to real-world tasks, especially
high-stakes ones. In this paper, we build a machine learning system to
automatically generate explanations of happened events from history by \gls{ca}
based on the \acrfull{tpp}. Specifically, we propose a new task called
\acrfull{ehd}. This task requires a model to distill as few events as possible
from observed history. The target is that the event distribution conditioned on
left events predicts the observed future noticeably worse. We then regard
distilled events as the explanation for the future. To efficiently solve
\acrshort{ehd}, we rewrite the task into a \gls{01ip} and directly estimate the
solution to the program by a model called \acrfull{model}. This work fills the
gap between our task and existing works, which only spot the difference between
factual and counterfactual worlds after applying a predefined modification to
the environment. Experiment results on Retweet and StackOverflow datasets prove
that \acrshort{model} significantly outperforms other \acrshort{ehd} baselines
and can reveal the rationale underpinning real-world processes.
- Abstract(参考訳): 研究者が一般的に信じられているブラックボックスを現実世界のタスク、特に高精細なタスクに導入する場合、機械学習モデルの説明責任は必須である。
本稿では,<acrfull{tpp} に基づいて,歴史から発生した事象の説明を自動的に生成する機械学習システムを構築した。
具体的には \acrfull{ehd} という新しいタスクを提案する。
このタスクでは、観測された履歴からできるだけ少ないイベントを蒸留するモデルが必要である。
対象は、左イベントに条件付けられた事象分布が、観測された未来を著しく悪化させることである。
そして、蒸留した出来事を将来の説明とみなす。
効率よく \acrshort{ehd} を解くために、タスクを \gls{01ip} に書き直し、 \acrfull{model} と呼ばれるモデルでプログラムの解を直接推定する。
この作業はタスクと既存の作業のギャップを埋めるものであり、環境に予め定義された修正を適用した後、事実と反現実の世界を区別するだけである。
RetweetとStackOverflowデータセットの実験結果から、 \acrshort{model} は他の \acrshort{ehd} ベースラインを著しく上回り、現実世界のプロセスを支える理論的根拠を明らかにすることができる。
関連論文リスト
- Controlling Forgetting with Test-Time Data in Continual Learning [15.455400390299593]
継続学習研究は、新しい知識が得られたときの過去の情報の破滅的な忘れを克服する技術を提供する。
テストタイムデータには,従来の学習タスクのモデルメモリをリフレッシュするために,自己管理的な方法で活用できる優れた情報がある,と我々は主張する。
論文 参考訳(メタデータ) (2024-06-19T15:56:21Z) - Fairness Hub Technical Briefs: Definition and Detection of Distribution Shift [0.5825410941577593]
分散シフトは機械学習タスクにおいて一般的な状況であり、モデルのトレーニングに使用されるデータは、モデルが現実世界に適用されるデータとは異なる。
本稿では,教育環境における分布変化の定義と検出に焦点をあてる。
論文 参考訳(メタデータ) (2024-05-23T05:29:36Z) - Continual Event Extraction with Semantic Confusion Rectification [50.59450741139265]
本研究では, 連続イベント抽出法について検討し, 忘れることを避けつつ, 間欠的に出現するイベント情報を抽出することを目的とした。
イベントタイプに関するセマンティックな混乱は、時間とともに更新される同じテキストのアノテーションに由来することを観察する。
本稿では,意味的混乱を是正した新しい連続イベント抽出モデルを提案する。
論文 参考訳(メタデータ) (2023-10-24T02:48:50Z) - Task-Robust Pre-Training for Worst-Case Downstream Adaptation [62.05108162160981]
プレトレーニングは下流のタスクに移行することで大きな成功を収めた。
本稿では,下流タスクに対する一様性能を保証するモデルについて,事前学習について考察する。
論文 参考訳(メタデータ) (2023-06-21T07:43:23Z) - Open-Vocabulary Argument Role Prediction for Event Extraction [70.93524366880521]
本稿では,この本質的だが未探索な課題,すなわち開語彙的引数ロール予測を定義する。
このタスクの目標は、所定のイベントタイプに対する引数ロールのセットを推論することである。
本稿では,この課題に対する新しい教師なしフレームワークであるRolePredを提案する。
論文 参考訳(メタデータ) (2022-11-03T04:13:37Z) - ERNIE-Layout: Layout Knowledge Enhanced Pre-training for Visually-rich
Document Understanding [52.3895498789521]
レイアウト知識を向上した新しい文書事前学習ソリューションであるERNIEを提案する。
まず、直列化段階で入力シーケンスを並べ替え、相関的な事前学習タスクを示し、順序予測を行い、文書の適切な読み順序を学習する。
実験の結果、ERNIEは様々な下流タスクにおいて優れた性能を示し、キー情報に新たな最先端設定、文書質問応答を実現している。
論文 参考訳(メタデータ) (2022-10-12T12:59:24Z) - HyperHawkes: Hypernetwork based Neural Temporal Point Process [5.607676459156789]
時間的ポイントプロセスは、連続した時間空間における時間間データのモデリングに不可欠なツールとして機能する。
動的環境における見えないシーケンスから事象を予測することは一般化できない。
ハイパーネットワークベースの時間的ポイントプロセスフレームワークである textitHyperHawkes を提案する。
論文 参考訳(メタデータ) (2022-10-01T07:14:19Z) - Enhancing Continual Learning with Global Prototypes: Counteracting
Negative Representation Drift [16.177180198865848]
継続的な学習は、あるタスクから別のタスクにデータ分散がシフトすることで、時間の経過とともに一連のタスクを学習することを目的としている。
負の表現の漂流は、局所的に学習されたクラスプロトタイプとデータ表現がタスク間で相関が悪くなることによって、破滅的な忘れを引き起こす可能性がある。
本稿では,学習のガイドとなるグローバルプロトタイプを見つけ,自己教師型情報の正規化によってデータ表現を学習する手法を提案する。
論文 参考訳(メタデータ) (2022-05-24T16:41:30Z) - Shared and Private VAEs with Generative Replay for Continual Learning [1.90365714903665]
継続的学習は、学習済みのタスクを忘れずに新しいタスクを学習しようとする。
既存のartificial neural network (ann)モデルのほとんどは失敗するが、人間は生涯にわたって過去の作品を思い出して同じことをする。
我々は,MNIST,Permuted MNIST(QMNIST),CIFAR100,MiniImageNetデータセットなどの視覚的連続学習ベンチマークにおいて,このハイブリッドモデルの有効性を示す。
論文 参考訳(メタデータ) (2021-05-17T06:18:36Z) - COG: Connecting New Skills to Past Experience with Offline Reinforcement
Learning [78.13740204156858]
我々は、動的プログラミングによって新しいスキルを拡張するために、事前データを再利用できることを示します。
我々は、新しいタスクを解決するために、以前のデータセットに見られるいくつかの動作をチェーンすることで、アプローチの有効性を実証する。
我々は、高次元画像観察を低レベルのロボット制御コマンドにマッピングし、エンドツーエンドでポリシーを訓練する。
論文 参考訳(メタデータ) (2020-10-27T17:57:29Z) - Learning Long-term Visual Dynamics with Region Proposal Interaction
Networks [75.06423516419862]
オブジェクト間およびオブジェクト環境間の相互作用を長距離にわたってキャプチャするオブジェクト表現を構築します。
単純だが効果的なオブジェクト表現のおかげで、我々の手法は先行手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-08-05T17:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。