論文の概要: Iffy-Or-Not: Extending the Web to Support the Critical Evaluation of Fallacious Texts
- arxiv url: http://arxiv.org/abs/2503.14412v1
- Date: Tue, 18 Mar 2025 16:50:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:14:54.357733
- Title: Iffy-Or-Not: Extending the Web to Support the Critical Evaluation of Fallacious Texts
- Title(参考訳): Iffy-Or-Not: 誤ったテキストの批判的評価を支援するWebの拡張
- Authors: Gionnieve Lim, Juho Kim, Simon T. Perrault,
- Abstract要約: Iffy-Or-Not (ION)は、テキストを読むときに批判的な思考を呼び起こそうとするブラウザ拡張である。
議論理論によってガイドされた3つの機能により、IONは誤ったコンテンツを強調し、それらを調査するための多様なクエリを提案し、他の人と検討し、チャットするためのより深い質問を提供する。
ユーザスタディ (N=18) から, ION はユーザのコンテンツに対する注意を喚起し, 自分に合った, あるいは好ましくないクエリを提案し, 思考を誘発する質問を提起し, 視点を広げる。
- 参考スコア(独自算出の注目度): 33.47284009289366
- License:
- Abstract: Social platforms have expanded opportunities for deliberation with the comments being used to inform one's opinion. However, using such information to form opinions is challenged by unsubstantiated or false content. To enhance the quality of opinion formation and potentially confer resistance to misinformation, we developed Iffy-Or-Not (ION), a browser extension that seeks to invoke critical thinking when reading texts. With three features guided by argumentation theory, ION highlights fallacious content, suggests diverse queries to probe them with, and offers deeper questions to consider and chat with others about. From a user study (N=18), we found that ION encourages users to be more attentive to the content, suggests queries that align with or are preferable to their own, and poses thought-provoking questions that expands their perspectives. However, some participants expressed aversion to ION due to misalignments with their information goals and thinking predispositions. Potential backfiring effects with ION are discussed.
- Abstract(参考訳): 社会プラットフォームは議論の機会を拡大し、意見を伝えるためにコメントが使用されている。
しかし、そのような情報を用いて意見を形成することは、根拠のない、または偽のコンテンツによって挑戦される。
意見形成の質を高め,誤情報に対する抵抗を与えるため,テキストを読む際に批判的思考を起こそうとするブラウザ拡張であるIffy-Or-Not(ION)を開発した。
議論理論によってガイドされた3つの機能により、IONは誤ったコンテンツを強調し、それらを調査するための多様なクエリを提案し、他の人と検討し、チャットするためのより深い質問を提供する。
ユーザスタディ (N=18) から, ION はユーザのコンテンツに対する注意を喚起し, 自分に合った, あるいは好ましくないクエリを提案し, 思考を誘発する質問を提起し, 視点を広げる。
しかし、一部の参加者は、情報目標と思考先入観との相違により、IONへの反対を表明した。
イオンによる潜在的なバックファイリング効果について論じる。
関連論文リスト
- From Voice to Value: Leveraging AI to Enhance Spoken Online Reviews on the Go [21.811104609265158]
音声入力によるレビューを提供するモバイルアプリケーションであるVocalizerを開発した。
調査の結果,AIエージェントを頻繁に利用し,レビューに詳細な情報を加えることができた。
また、インタラクティブなAI機能によって、ユーザーの自己効力感やレビューをオンラインで共有する意欲が向上することを示す。
論文 参考訳(メタデータ) (2024-12-06T21:59:47Z) - Argumentative Experience: Reducing Confirmation Bias on Controversial Issues through LLM-Generated Multi-Persona Debates [7.4355162723392585]
大きな言語モデル(LLM)は、デザイナーが情報アクセスのためのエキサイティングな新しいユーザーエクスペリエンスに命を吹き込むことを可能にする。
本研究は, 異論を呈する諸問題に対して, 混合方法論, 対象内研究を通じて複数の視点を呈する。
ベースライン検索システムと比較すると、より創造的な相互作用と多様な情報検索が、我々の多人数討論システムと比較される。
論文 参考訳(メタデータ) (2024-12-05T21:51:05Z) - Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - ArguMentor: Augmenting User Experiences with Counter-Perspectives [4.84187718353576]
ArguMentorは、意見書のクレームをハイライトする人間とAIのコラボレーションシステムである。
LLMを使用してそれらに対する反論を識別し、現在のイベントに基づいたコンテキストベースの要約を生成する。
さらに、Q&AボットやDebateMeなどの追加機能を通じて、ユーザ理解をさらに強化する。
論文 参考訳(メタデータ) (2024-06-04T21:43:56Z) - What Evidence Do Language Models Find Convincing? [94.90663008214918]
議論の的になっているクエリと、さまざまな事実を含む実世界の証拠文書を組み合わせたデータセットを構築します。
このデータセットを用いて、感度と反ファクト分析を行い、どのテキスト特徴がLLM予測に最も影響するかを探索する。
全体として、現在のモデルは、クエリに対するWebサイトの関連性に大きく依存している一方で、人間が重要と考えるスタイル的特徴をほとんど無視している。
論文 参考訳(メタデータ) (2024-02-19T02:15:34Z) - Fostering User Engagement in the Critical Reflection of Arguments [3.26297440422721]
本研究では,人間との対話を行うシステムを提案する。
ユーザが既存の意見に集中しすぎれば,システムに介入することが可能になる。
58名の被験者を対象に,本モデルと介入機構の効果について調査を行った。
論文 参考訳(メタデータ) (2023-08-17T15:48:23Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Helping users discover perspectives: Enhancing opinion mining with joint
topic models [5.2424255020469595]
本稿では,共同トピックモデリングによる意見マイニングの強化について考察する。
我々は,抽出された視点の人間の理解可能性を評価するユーザスタディにおいて,共同トピックモデル(TAM,JST,VODUM,LAM)を4つ評価した。
論文 参考訳(メタデータ) (2020-10-23T16:13:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。