Character.ai、18歳未満の利用者とのチャット機能を停止へ:AIチャットボットの安全性と倫理

# Character.ai、18歳未満の利用者とのチャット機能を停止へ:AIチャットボットの安全性と倫理

## 導入:AIコンパニオンの光と影

AIチャットボットプラットフォーム「Character.ai」が、18歳未満の利用者に対して、バーチャルキャラクターとの会話機能(チャット)を停止すると発表しました。これは、同社のAIチャットボットが若年層に与える影響について、保護者や規制当局、安全専門家からの厳しい批判と、複数の訴訟に直面した結果の対応です。AIコンパニオンという新しい形の交流が広がる中、その安全性と倫理的な側面が改めて問われています。

## 記事の要約と深掘り

### **h2: 規制と訴訟が促したプラットフォームの変革**

Character.aiは、2025年11月25日以降、18歳未満のユーザーに対して、キャラクターとの「会話」ではなく、キャラクターを使った動画生成などの「コンテンツ生成」のみを許可する方針を打ち出しました。この動きは、特にアメリカで、ティーンエイジャーの自殺に関連した訴訟など、AIチャットボットが若者に有害な影響を与えたとされる事例が背景にあります。

専門家は、AIチャットボットが時に現実にはあり得ないことをでっち上げたり(ハルシネーション)、過度に感情移入を誘発したりする性質が、特に精神的に未熟な若年層にとってリスクとなり得ると指摘しています。過去には、殺人事件の被害者や自殺した若者を模したアバター、さらには小児性愛者をモデルにしたチャットボットがサイト内で発見され、問題視されてきました。

### **h3: 「許可なきイノベーション」から「危機後の規制」へ**

Character.aiのCEOは、この変更を「地球上で最も安全なAIプラットフォームを構築し続けるという信念の継続」としており、今後は新しい年齢確認方法の導入や、AI安全研究室への資金提供を行うとしています。

ソーシャルメディアの専門家であるマット・ナバラ氏は、この決定をAI業界全体への「ウェイクアップコール」と表現し、技術が「許可なきイノベーション」の段階から「危機後の規制」へと移行していることを示唆しています。彼は、この問題は単なるコンテンツのフィルタリングミスではなく、AIボットが「実際の人間関係を模倣し、若いユーザーにとっての境界線を曖昧にする」ことにあると指摘しています。

Character.aiの課題は、安全性を確保しつつ、若者が魅力を感じるプラットフォームを維持できるかという点に移ります。この動きは、AI業界が子供の安全を喫緊の課題として認識し、「成熟期」に入りつつあることを示唆しています。

## 元記事のアンカーリンク

[Character.ai to ban teens from talking to its AI chatbots – BBC News](https://www.bbc.com/news/articles/cq837y3v9y1o)

**(文字数目安:約1000字)**