従わない場合、アカウント停止や削除の可能性も。
Google傘下の動画共有サービス「YouTube」は、15日、生成AI(人工知能)を利用したコンテンツの開示を義務付ける新ポリシーを発表した。従わない場合、アカウント停止や削除の可能性もある。
新ポリシーでは、生成AIを利用したコンテンツの作成者は、その旨を動画の説明欄に明記する必要がある。また、コンテンツの作成に使用したAIの名称やバージョン、パラメータなども併せて記載する必要がある。
生成AIを利用したコンテンツは、近年、YouTube上で急増している。しかし、その中には、著作権侵害や誹謗中傷など、問題のあるコンテンツも含まれている。
YouTubeは、新ポリシーにより、これらの問題を抑制する狙いがあるとみられる。
新ポリシーは、12月1日から施行される。
開示の義務化で、どのような影響があるのか?
新ポリシーの施行により、生成AIを利用したコンテンツの作成者は、その旨を動画の説明欄に明記する必要がある。これにより、視聴者は、その動画が生成AIを利用したものかどうかを判断しやすくなる。
また、YouTubeは、生成AIを利用したコンテンツの審査を強化する。これにより、著作権侵害や誹謗中傷などの問題のあるコンテンツの削除が進むと期待される。
一方で、新ポリシーにより、生成AIを利用したコンテンツの創作活動が制限される可能性もある。また、開示の義務化により、作成者のプライバシーが侵害される懸念もある。
今後の課題は?
YouTubeは、新ポリシーの施行により、生成AIを利用したコンテンツの健全化を図ろうとしている。しかし、新ポリシーの施行により、どのような影響があるのか、まだ不透明な部分も多い。
今後は、新ポリシーの運用状況を注視し、必要に応じて改善していく必要がある。
こちらの記事もおすすめ: