from Major Error Found in Stable Diffusion’s Biggest Training Dataset.
スタンフォード大学のインターネット観測所の研究者たちが、AIモデル「ステーブル・ディフュージョン」などに使用されている主要なAI画像トレーニングデータセット「LAION-5B」に、子どもの性的虐待素材(CSAM)に関連する3,000件以上のリンクが含まれていることを発見しました。この問題は、AIエコシステムにこのようなコンテンツが流入する潜在的な影響について懸念を引き起こしています。LAIONは非営利団体であり、この発見を受けてLAION-5Bを含むデータセットの一時的な削除を決定し、安全性を確保した上で再公開することを約束しました。この問題は、GoogleのImagenなど他のAIモデルにも影響を及ぼしています。この事件は、AIトレーニングデータセットの開発と利用における責任ある実践の必要性を浮き彫りにし、既存のフィルタリングメカニズムの有効性や、データセットの安全性と合法性を保証するために専門家と協議する組織の責任について疑問を投げかけています。AIコミュニティはこれらの課題に取り組む中で、AIモデルを通じて違法で有害なコンテンツが不注意にも永続化されることを防ぐために、データセット作成プロセスの徹底的な再評価が不可欠です。