論文の概要: Written Justifications are Key to Aggregate Crowdsourced Forecasts
- arxiv url: http://arxiv.org/abs/2109.07017v1
- Date: Tue, 14 Sep 2021 23:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 03:31:22.187179
- Title: Written Justifications are Key to Aggregate Crowdsourced Forecasts
- Title(参考訳): クラウドソースの予測を集約する鍵は、書面の正当性にある
- Authors: Saketh Kotamraju and Eduardo Blanco
- Abstract要約: 多数派と重み付けされた投票基準は競争力があり、前四半期を除き、書面の正当性は人生を通じて質問を呼ぶのに有益であることを示す。
また、正当性を信頼できない特性に光を流す誤り解析を行う。
- 参考スコア(独自算出の注目度): 13.101391534592231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper demonstrates that aggregating crowdsourced forecasts benefits from
modeling the written justifications provided by forecasters. Our experiments
show that the majority and weighted vote baselines are competitive, and that
the written justifications are beneficial to call a question throughout its
life except in the last quarter. We also conduct an error analysis shedding
light into the characteristics that make a justification unreliable.
- Abstract(参考訳): 本稿では,クラウドソースによる予測の集約が,予測者が提示した正当化書をモデル化することのメリットを実証する。
私たちの実験では、多数票と重み付け投票のベースラインは競争力があり、書面による正当化は、前四半期を除いて、その人生を通じて質問を呼び出すことに有益であることを示している。
また, 正当化の信頼性を損なう特性に光を当てる誤差解析を行う。
関連論文リスト
- STRIVE: Structured Reasoning for Self-Improvement in Claim Verification [21.00145637520767]
自己改善検証のための構造化推論を提案する。
本稿では,Crim Decomposition,Entity Analysis,Evidence Grounding Verificationを用いた構造化推論設計を提案する。
その後、すべてのトレーニング例に対して推論連鎖を生成するために適用され、その後の自己改善トレーニングのために正確で構造的に健全なもののみを選択する。
論文 参考訳(メタデータ) (2025-02-17T16:07:07Z) - Explicit Inductive Inference using Large Language Models [13.767536248988268]
大規模言語モデル(LLM)は、推論タスクに対して望ましくない証明バイアスを負うと報告されている。
このバイアスを利用して明示的な帰納的推論を行うパイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-26T17:58:17Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Human Feedback is not Gold Standard [28.63384327791185]
我々は、トレーニングと評価の両方において、人間のフィードバックの使用を批判的に分析する。
選好スコアはかなり良いカバレッジを持っているが、事実性のような重要な側面は低く表現されている。
論文 参考訳(メタデータ) (2023-09-28T11:18:20Z) - Goodhart's Law Applies to NLP's Explanation Benchmarks [57.26445915212884]
ERASER(Comprehensiveness and sufficiency)メトリクスとEVAL-X(EVAL-X)メトリクスの2つのセットを批判的に検討する。
実験結果の予測や説明を変えることなく,モデル全体の包括性と充足率を劇的に向上させることができることを示す。
我々の結果は、現在のメトリクスが説明可能性の研究をガイドする能力に疑問を呈し、これらのメトリクスが正確に捉えるものを再評価する必要性を強調します。
論文 参考訳(メタデータ) (2023-08-28T03:03:03Z) - Interpretable Automatic Fine-grained Inconsistency Detection in Text
Summarization [56.94741578760294]
本研究の目的は, 要約中の事実誤りの微粒化を予測し, 微粒化不整合検出の課題を提案することである。
要約における現実的不整合の検査方法に触発され,解析可能な微粒不整合検出モデルであるFinGrainFactを提案する。
論文 参考訳(メタデータ) (2023-05-23T22:11:47Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - What Makes a Scientific Paper be Accepted for Publication? [32.11009230278947]
私たちは、機械学習と説明可能なAIは、与えられたピアレビュープロセスからの決定に関する洞察を可能にするツールを提供すると主張しています。
まず、オープンなピアレビューデータセットで公開する科学論文の受理に影響を与える言語的特徴の形でグローバルな説明を抽出することから始めます。
論文 参考訳(メタデータ) (2021-04-14T20:26:51Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。