論文の概要: Automatic Fact-checking in English and Telugu
- arxiv url: http://arxiv.org/abs/2509.26415v1
- Date: Tue, 30 Sep 2025 15:39:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.189742
- Title: Automatic Fact-checking in English and Telugu
- Title(参考訳): 英語とテルグ語の自動ファクトチェック
- Authors: Ravi Kiran Chikkala, Tatiana Anikina, Natalia Skachkova, Ivan Vykopal, Rodrigo Agerri, Josef van Genabith,
- Abstract要約: 本研究では,大規模言語モデル(LLM)の有効性について検討した。
この研究の主な貢献は、バイリンガル・イングリッシュ・テルグデータセットの作成と、異なる妥当性分類アプローチのベンチマークである。
- 参考スコア(独自算出の注目度): 18.787326518796373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: False information poses a significant global challenge, and manually verifying claims is a time-consuming and resource-intensive process. In this research paper, we experiment with different approaches to investigate the effectiveness of large language models (LLMs) in classifying factual claims by their veracity and generating justifications in English and Telugu. The key contributions of this work include the creation of a bilingual English-Telugu dataset and the benchmarking of different veracity classification approaches based on LLMs.
- Abstract(参考訳): 偽情報は重要なグローバルな課題であり、手作業によるクレームの検証は時間とリソース集約的なプロセスである。
本研究では,大規模言語モデル(LLM)の有効性を,その正確さによる事実的主張の分類と,英語とテルグ語における正当性の生成において検討する。
この研究の主な貢献は、バイリンガル・イングリッシュ・トゥルーグデータセットの作成と、LLMに基づく異なる妥当性分類アプローチのベンチマークである。
関連論文リスト
- Cross-Lingual Pitfalls: Automatic Probing Cross-Lingual Weakness of Multilingual Large Language Models [55.14276067678253]
本稿では,Large Language Models (LLMs) における言語間関係の弱点を効率的に同定するための新しい手法を提案する。
この手法を用いて16言語で6,000以上のバイリンガルペアからなる新しいデータセットを構築し、最先端のモデルにおいても弱点を明らかにする効果を実証した。
さらに,言語的類似性と言語間の弱点との関係について検討し,言語的関連言語が類似した演奏パターンを共有することを明らかにした。
論文 参考訳(メタデータ) (2025-05-24T12:31:27Z) - Large Language Models for Multilingual Previously Fact-Checked Claim Detection [7.086459223390658]
本稿では,複数言語による事実チェックによるクレーム検出のための大規模言語モデル (LLM) の総合評価について述べる。
20言語にまたがる7つのLLMをモノリンガル・クロスリンガル・セッティングで評価する。
この結果から,LLMは高リソース言語ではよく機能するが,低リソース言語では苦戦していることがわかった。
論文 参考訳(メタデータ) (2025-03-04T15:56:43Z) - Beyond English: Evaluating Automated Measurement of Moral Foundations in Non-English Discourse with a Chinese Case Study [8.068626035121875]
本研究では、非英語コーパスにおける道徳的基礎(MF)を測定するための計算手法について検討する。
本研究は,中国語を事例として,機械翻訳テキスト,局所言語語彙,多言語言語モデル,および多言語モデル(LLM)に英語リソースを適用し,非英語テキストのMFを測定することの有効性を評価する。
論文 参考訳(メタデータ) (2025-02-04T16:17:01Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Zero-Shot Cross-Lingual Reranking with Large Language Models for
Low-Resource Languages [51.301942056881146]
アフリカ語における言語間情報検索システムにおいて,大規模言語モデル (LLM) がリランカーとしてどのように機能するかを検討する。
私たちの実装は、英語と4つのアフリカの言語(ハウサ語、ソマリ語、スワヒリ語、ヨルバ語)を対象としています。
我々は、英語のクェリとアフリカの言葉の文節による言語横断的な格付けについて検討する。
論文 参考訳(メタデータ) (2023-12-26T18:38:54Z) - Extrapolating Large Language Models to Non-English by Aligning Languages [109.09051737966178]
既存の大きな言語モデルは、異なる言語間で異なる能力を示す。
本稿では,言語間のセマンティックアライメントを構築することで,英語以外の言語に事前学習したLLMを強化する。
論文 参考訳(メタデータ) (2023-08-09T13:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。