AIツールが研究論文や査読におけるLLM生成テキストを検出

# AIツールが研究論文や査読におけるLLM生成テキストを検出

## 導入

学術出版社である米国癌研究協会(AACR)の分析により、過去数年間で研究論文の投稿や査読報告書におけるAI生成テキストの存在が劇的に増加していることが明らかになりました。特に、OpenAIのChatGPTが公開されて以来、その傾向は顕著です。本記事では、このAI検出ツールの機能と、学術界におけるAI利用の現状と課題について掘り下げます。

## AI生成テキストの増加と検出

AACRは、Pangram Labsが開発したAIツールを使用して、投稿された原稿をスクリーニングしました。その結果、2024年に投稿された抄録の23%と査読報告書の5%に、大規模言語モデル(LLM)によって生成された可能性のあるテキストが含まれていることが判明しました。さらに驚くべきことに、出版社がAIの使用を開示するよう義務付けているにもかかわらず、AIを使用した著者の25%未満しか開示していませんでした。

### Pangramツールの精度と課題

Pangramツールは、2021年以前に書かれた2,800万件の人間が書いた文書と、人間が書いた文章の長さ、スタイル、トーンを模倣した「AIミラー」と呼ばれるLLM生成テキストで訓練されています。Pangram LabsのCEOであるMax Spero氏によると、このツールの精度は99.85%であり、他の既存のAI検出ツールと比較して誤検出率が38倍低いとされています。

しかし、このツールには課題も存在します。現在のPangramモデルは、AIによって完全に生成された文章と、人間が書いてAIで編集された文章を区別することができません。また、英語を母国語としない国の機関の著者がLLMを使用する可能性が2倍以上高いことも判明しており、言語補助としてのAI利用が、意図せず誤りを含む可能性も指摘されています。

## 学術界におけるAI利用の倫理

AACRが査読者によるLLMの使用を禁止した後、査読報告書におけるAI生成テキストの検出は2023年後半に50%減少しましたが、2024年初頭には2倍以上に増加し、その後も増加し続けています。これは、禁止にもかかわらずLLMの使用が増加していることを示しており、学術界におけるAI利用の倫理と、その開示の重要性を浮き彫りにしています。

### 透明性と責任の必要性

研究の信頼性を維持するためには、AIツールの使用に関する透明性と責任が不可欠です。著者は、AIツールをどのように使用したかを明確に開示し、出版社はAI検出ツールを積極的に活用して、不正行為を防止する必要があります。AI技術が進化し続ける中で、学術界はAIの恩恵を享受しつつ、その潜在的なリスクを管理するための新たな倫理的枠組みを確立していく必要があります。

## 元記事

[AI tool detects LLM-generated text in research papers and peer reviews](https://www.nature.com/articles/d41586-025-02936-6)