Google GeminiのAIトレーニングにおける「過酷な労働」の実態

# Google GeminiのAIトレーニングにおける「過酷な労働」の実態

## 導入

GoogleのAIモデル「Gemini」の背後には、AIを賢く見せるために「過酷な労働を強いられ、低賃金で働く」数千人もの人間のトレーナーが存在します。彼らはAIの品質管理において不可欠な役割を担いながらも、その貢献は隠されがちです。本記事では、彼らの労働環境とAI開発における倫理的な課題について深掘りします。

## AIラター:影の労働力

Googleは、GlobalLogicなどの請負業者を通じてデータワーカーを雇用しており、彼らは「ジェネラリストラター」と「スーパーラター」に大別されます。スーパーラターの中には、高度な専門知識を持つ人々も含まれ、多くは元教師や作家、美術の修士号を持つ人々、さらには物理学の博士号を持つ人々もいます。

GlobalLogicは2023年にGoogleのAIラター業務を開始し、当初25人のスーパーラターを雇用していましたが、チャットボットの改善競争が激化するにつれて、その数は2,000人近くにまで増加しました。彼らのほとんどは米国内に居住し、英語のコンテンツをモデレートしています。

### 労働条件と不満

AIラターの賃金は、ジェネラリストラターで時給16ドル、スーパーラターで時給21ドルからとされています。これはアフリカや南米のデータラベリング作業員よりは高いものの、彼らの専門知識や労働内容に見合わないと不満を抱く声も少なくありません。特に、タスクの締め切りが厳しくなり、1つのタスクに与えられる時間が30分から15分に短縮されたことで、1つの回答につき約500語もの内容を読み、事実確認し、評価するという過酷な作業を強いられています。

あるラターは、この厳しい制約が自身の仕事の質、ひいてはAIの信頼性に対する疑問を抱かせたと述べています。また、多くのAIトレーナーが、孤立した環境での作業、厳しくなる一方の締め切り、そしてユーザーにとって安全ではない製品を生み出しているという感覚から、仕事に幻滅していると語っています。

## AI開発における倫理的課題

この問題は、AI開発における倫理的な課題を浮き彫りにしています。AIの進歩は人間の労働に大きく依存しているにもかかわらず、その労働者たちは十分な評価や報酬を得られていない現状があります。Googleは、品質ラターの評価は「システムがどれだけうまく機能しているかを測定する多くの集計データポイントの1つであり、アルゴリズムやモデルに直接影響を与えるものではない」と声明で述べていますが、ラターたちは自分たちの貢献が不可欠であると感じています。

### 透明性と責任

AIの「魔法」の裏には、人間の労働という「ピラミッドスキーム」が存在するという指摘は、AI開発における透明性と責任の欠如を示唆しています。AIモデルの安全性と信頼性を確保するためには、その開発プロセスに関わるすべての労働者の権利と福祉が尊重されるべきです。AI技術が社会に浸透するにつれて、このような倫理的な問題に対する議論と解決策の模索がますます重要になります。

## 元記事

[How thousands of ‘overworked, underpaid’ humans train Google’s AI to seem smart](https://www.theguardian.com/technology/2025/sep/11/google-gemini-ai-training-humans)