AI生成コンテンツが私たちの健康に危険をもたらす可能性があるかもしれないという懸念が高まっています。特に、現実と見分けがつかないほどリアルなディープフェイクや、私たちの注意や感情を奪うビデオなどが、認知的危険(cognitohazards)と呼ばれる新たな問題として浮上しています。これらは、見るだけで有害な影響を及ぼす可能性があるアイデアやイメージを指します。
ディープフェイクの自動識別に関する取り組みの中で、専門家でさえも見分けがつかなくなってきている現状があります。そのため、このような素材を自動的に検出し、ラベル付けするシステムの開発が急務となっています。しかし、ラベル付けだけでは不十分な場合もあり、視聴者が実際にはディープフェイクであると知らされていても、それを現実として受け入れてしまう心理的な影響が指摘されています。
また、私たちの注意を奪う技術も問題視されています。例えば、「クリッカー」や「アイドル」ゲーム、あるいは「ドミノビデオ」などは、見る者を引き込み、時間を浪費させる可能性があります。これらは、注意を集中させることを目的としたコンテンツであり、中毒性があるとも言われています。
AIがソーシャルメディアで注意を集めるために使われる場合、私たちはインターネット上で誰と話すかだけでなく、何を見るかにも注意を払う必要があるかもしれません。AI生成イメージの検出は難しくなっていますが、不可能ではありません。例えば、余分な手足、不一致なパターン、ぼやけた文字などが指摘されています。MetaはAI生成イメージに「AIで作成されました」というラベルを付ける計画を進めていますが、その効果はまだ未知数です。
【ニュース解説】
近年、AIによって生成されたコンテンツが私たちの健康に潜在的な危険をもたらす可能性があるという懸念が高まっています。特に、現実と見分けがつかないほどリアルなディープフェイクや、私たちの注意や感情を奪うビデオなどが問題となっています。これらは「認知的危険(cognitohazards)」と呼ばれ、見るだけで有害な影響を及ぼす可能性があるアイデアやイメージを指します。
ディープフェイクの技術は日々進化しており、専門家でさえも見分けることが難しくなっています。このようなコンテンツを自動的に検出し、ラベル付けするシステムの開発が進められていますが、ラベル付けされたとしても、視聴者がそれを現実として受け入れてしまう心理的な影響が問題となっています。
さらに、私たちの注意を奪う技術も問題視されています。例えば、「クリッカー」や「アイドル」ゲーム、あるいは「ドミノビデオ」などは、見る者を引き込み、時間を浪費させる可能性があります。これらは、注意を集中させることを目的としたコンテンツであり、中毒性があるとも言われています。
AIがソーシャルメディアで注意を集めるために使われる場合、私たちはインターネット上で誰と話すかだけでなく、何を見るかにも注意を払う必要があるかもしれません。AI生成イメージの検出は難しくなっていますが、不可能ではありません。例えば、余分な手足、不一致なパターン、ぼやけた文字などが指摘されています。MetaはAI生成イメージに「AIで作成されました」というラベルを付ける計画を進めていますが、その効果はまだ未知数です。
このような技術の進化は、私たちの生活に多くの便利さをもたらしていますが、同時に新たなリスクも生み出しています。AI生成コンテンツの健康への影響については、今後も継続的な研究と議論が必要です。また、消費者としては、情報を批判的に評価し、自分たちの健康と安全を守るための知識を身につけることが重要です。
from Could AI-generated content be dangerous for our health?.