論文の概要: Answer-Set Programs for Repair Updates and Counterfactual Interventions
        - arxiv url: http://arxiv.org/abs/2209.12110v1
- Date: Sun, 25 Sep 2022 00:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-09-27 17:54:33.789319
- Title: Answer-Set Programs for Repair Updates and Counterfactual Interventions
- Title(参考訳): 補修更新と反事実介入のための回答セットプログラム
- Authors: Leopoldo Bertossi
- Abstract要約: アノテーションで様々な種類の回答セットプログラムを簡潔に記述する。
これには、データベースの修復と一貫したクエリ応答、機密ビューとクエリ評価、データベースの因果関係に対する偽の介入が含まれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract:   We briefly describe -- mainly through very simple examples -- different kinds
of answer-set programs with annotations that have been proposed for specifying:
database repairs and consistent query answering; secrecy view and query
evaluation with them; counterfactual interventions for causality in databases;
and counterfactual-based explanations in machine learning.
- Abstract(参考訳): データベースの修復と一貫したクエリの応答、データベースによる秘密のビューとクエリの評価、データベースにおける因果関係に対する反事実的介入、機械学習における反事実に基づく説明などです。
 
      
        関連論文リスト
        - Composable Interventions for Language Models [60.32695044723103]
 言語モデルのテストタイム介入は、事実の正確性を高め、有害な出力を軽減し、コストのかかる再トレーニングなしにモデルの効率を向上させる。
しかし、新しい手法の洪水にもかかわらず、様々な種類の介入が独立して発展している。
複数の介入が同じ言語モデルに与える影響を研究するためのフレームワークである構成可能な介入を導入する。
 論文  参考訳(メタデータ) (2024-07-09T01:17:44Z)
- Attribution-Scores in Data Management and Explainable Machine Learning [0.0]
 本稿では,データベースにおける責任スコアの定義における実際の因果性の利用に関する最近の研究について述べる。
データベースの場合、データベースの修復に有用な接続を図示し、活用する。
分類モデルでは、責任スコアが適切に拡張され、図示される。
 論文  参考訳(メタデータ) (2023-07-31T22:41:17Z)
- From Database Repairs to Causality in Databases and Beyond [0.0]
 本稿では,データベースにおける問合せ応答に対するスコアベース説明に対する最近のアプローチについて述べる。
スコアの仕様と計算に反実的推論を使うことに特に重点を置いている。
 論文  参考訳(メタデータ) (2023-06-15T04:08:23Z)
- Socratic Pretraining: Question-Driven Pretraining for Controllable
  Summarization [89.04537372465612]
 ソクラティック事前訓練は、要約タスクにおける制御性を改善するために設計された、質問駆動で教師なし事前訓練の目的である。
以上の結果から,Socraticプレトレーニングはタスク固有のラベル付きデータ要件を半分に削減することがわかった。
 論文  参考訳(メタデータ) (2022-12-20T17:27:10Z)
- DecAF: Joint Decoding of Answers and Logical Forms for Question
  Answering over Knowledge Bases [81.19499764899359]
 本稿では,論理形式と直解の両方を共同で生成する新しいフレームワークDecAFを提案する。
DecAFはWebQSP、FreebaseQA、GrailQAベンチマークで新しい最先端の精度を実現している。
 論文  参考訳(メタデータ) (2022-09-30T19:51:52Z)
- Simulating Bandit Learning from User Feedback for Extractive Question
  Answering [51.97943858898579]
 教師付きデータを用いたフィードバックのシミュレーションにより,ユーザフィードバックからの学習を抽出的質問応答に適用する。
当初は少数の例でトレーニングしたシステムが,モデル予測された回答に対するユーザからのフィードバックを劇的に改善できることが示される。
 論文  参考訳(メタデータ) (2022-03-18T17:47:58Z)
- Reasoning about Counterfactuals and Explanations: Problems, Results and
  Directions [0.0]
 これらのアプローチは柔軟でモジュール化されており、ドメイン知識のシームレスな追加を可能にします。
プログラムは、責任に基づく数値スコアを分類結果の属性的説明として指定し、計算するために使用することができる。
 論文  参考訳(メタデータ) (2021-08-25T01:04:49Z)
- Answer-Set Programs for Reasoning about Counterfactual Interventions and
  Responsibility Scores for Classification [0.0]
 本稿では,分類対象のエンティティに対する対実的介入を宣言的に特定するために,回答セットプログラムをどのように利用できるかを説明する。
特に、責任スコアを分類モデルの結果に対する属性に基づく説明として定義し、計算するために使用することができる。
 論文  参考訳(メタデータ) (2021-07-21T15:41:56Z)
- Score-Based Explanations in Data Management and Machine Learning: An
  Answer-Set Programming Approach to Counterfactual Analysis [0.0]
 本稿では,データベースにおける問合せ回答のスコアベース説明に対する最近のアプローチと,機械学習における分類モデルによる結果について述べる。
スコアの仕様と計算に反実的推論を使うことに対する、応答セットプログラミングに基づく宣言的アプローチに特に重点を置いている。
 論文  参考訳(メタデータ) (2021-06-19T19:21:48Z)
- Learning an Effective Context-Response Matching Model with
  Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
 我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
 論文  参考訳(メタデータ) (2020-09-14T08:44:46Z)
- A Revised Generative Evaluation of Visual Dialogue [80.17353102854405]
 本稿では,VisDialデータセットの改訂評価手法を提案する。
モデルが生成した回答と関連する回答の集合のコンセンサスを測定する。
DenseVisDialとして改訂された評価スキームのこれらのセットとコードをリリースする。
 論文  参考訳(メタデータ) (2020-04-20T13:26:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。