論文の概要: Human-centered NLP Fact-checking: Co-Designing with Fact-checkers using Matchmaking for AI
- arxiv url: http://arxiv.org/abs/2308.07213v3
- Date: Mon, 14 Oct 2024 18:04:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 13:59:46.673616
- Title: Human-centered NLP Fact-checking: Co-Designing with Fact-checkers using Matchmaking for AI
- Title(参考訳): 人間中心のNLP Fact-checking:Matchmaking for AIを用いたFact-checkersの共同設計
- Authors: Houjiang Liu, Anubrata Das, Alexander Boltz, Didi Zhou, Daisy Pinaroc, Matthew Lease, Min Kyung Lee,
- Abstract要約: 我々は、ファクトチェッカー、デザイナ、NLP研究者との共同設計手法であるMatchmaking for AIを調査し、技術によってファクトチェッカーが対処すべきことを特定する。
22人のプロのファクトチェッカーによる共同設計セッションでは、"北の星"を提供する11のアイデアセットが得られました。
私たちの研究は、人間中心の事実チェック研究と実践とAIの共同設計研究の両方に、新たな洞察を与えています。
- 参考スコア(独自算出の注目度): 46.40919004160953
- License:
- Abstract: While many Natural Language Processing (NLP) techniques have been proposed for fact-checking, both academic research and fact-checking organizations report limited adoption of such NLP work due to poor alignment with fact-checker practices, values, and needs. To address this, we investigate a co-design method, Matchmaking for AI, to enable fact-checkers, designers, and NLP researchers to collaboratively identify what fact-checker needs should be addressed by technology, and to brainstorm ideas for potential solutions. Co-design sessions we conducted with 22 professional fact-checkers yielded a set of 11 design ideas that offer a "north star", integrating fact-checker criteria into novel NLP design concepts. These concepts range from pre-bunking misinformation, efficient and personalized monitoring misinformation, proactively reducing fact-checker potential biases, and collaborative writing fact-check reports. Our work provides new insights into both human-centered fact-checking research and practice and AI co-design research.
- Abstract(参考訳): ファクトチェックには多くの自然言語処理(NLP)技術が提案されているが、学術研究とファクトチェック機関の両方では、ファクトチェックの実践や価値観、ニーズとの整合性に乏しいため、そのようなNLP作業の採用が制限されていると報告している。
これを解決するために、ファクトチェッカー、デザイナ、NLP研究者が、技術によってどのファクトチェッカーに対処する必要があるかを共同で特定し、潜在的なソリューションのアイデアをブレインストーミングする、共同設計手法であるMatchmaking for AIを調査した。
22のプロのファクトチェッカーによる共同設計セッションでは、"北の星"を提供する11のデザインアイデアが生まれ、ファクトチェッカーの基準を新しいNLPデザイン概念に統合しました。
これらの概念は、事前発行の誤報、効率的でパーソナライズされた誤報の監視、ファクトチェックの潜在的なバイアスを積極的に軽減すること、共同でファクトチェックレポートを書くことなどである。
私たちの研究は、人間中心の事実チェック研究と実践とAIの共同設計研究の両方に、新たな洞察を与えています。
関連論文リスト
- On Evaluating Explanation Utility for Human-AI Decision Making in NLP [39.58317527488534]
アプリケーショングラウンド評価に適した既存の指標について検討する。
我々は,人間-AIチームの形成と研究のために,芸術の状態を再評価することの重要性を実証する。
論文 参考訳(メタデータ) (2024-07-03T23:53:27Z) - The Impact and Opportunities of Generative AI in Fact-Checking [12.845170214324662]
生成AIは、OpenAIのフラッグシップGPTモデルを使用したフォーチュン500企業の90%以上が、ホワイトカラーの専門職を変革する可能性がある。
しかし、そのような技術は、事実情報の検証と報告を行う組織にどのように影響しますか?
我々は6大陸29のファクトチェック組織で働くN=38人を対象に30回のインタビューを行った。
論文 参考訳(メタデータ) (2024-05-24T23:58:01Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - The Shifted and The Overlooked: A Task-oriented Investigation of
User-GPT Interactions [114.67699010359637]
実際のユーザクエリの大規模なコレクションをGPTに解析する。
ユーザインタラクションでは'設計'や'計画'といったタスクが一般的だが,従来のNLPベンチマークとは大きく異なる。
論文 参考訳(メタデータ) (2023-10-19T02:12:17Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Assisting Human Decisions in Document Matching [52.79491990823573]
我々は,意思決定者のパフォーマンスを向上する支援情報の種類を評価するためのプロキシマッチングタスクを考案した。
ブラックボックスモデルによる説明を提供することで,マッチング作業におけるユーザの精度が低下することが判明した。
一方,タスク固有のデシラタに密接に対応するように設計されたカスタムメソッドは,ユーザのパフォーマンス向上に有効であることが判明した。
論文 参考訳(メタデータ) (2023-02-16T17:45:20Z) - The State of Human-centered NLP Technology for Fact-checking [7.866556977836075]
誤報は科学への不信を助長し、公衆衛生の物語を変え、民主的な選挙や金融市場を破壊することで近代社会を脅かす。
よりスケーラブルなファクトチェックのために、NLP(Natural Language Processing)技術が提案されている。
このような研究の著しい成長にもかかわらず、ファクトチェックのためのNLP技術の実践的採用はいまだに初期段階にある。
論文 参考訳(メタデータ) (2023-01-08T15:13:13Z) - Autonomation, not Automation: Activities and Needs of Fact-checkers as a Basis for Designing Human-Centered AI Systems [1.7925621668797338]
我々は中央ヨーロッパのファクトチェッカーに詳しいインタビューを行った。
我々の貢献には、非英語圏における事実確認作業の多様性に関する詳細な調査が含まれる。
学際的なコラボレーションのおかげで、AI研究におけるファクトチェックのプロセスを3つの追加段階に拡張します。
論文 参考訳(メタデータ) (2022-11-22T10:18:09Z) - An Uncommon Task: Participatory Design in Legal AI [64.54460979588075]
われわれは10年以上前に行われた法律分野における、注目に値する、未調査のAI設計プロセスについて検討する。
インタラクティブなシミュレーション手法によって,コンピュータ科学者と弁護士が共同設計者になれることを示す。
論文 参考訳(メタデータ) (2022-03-08T15:46:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。