皮卡丘是谁的数码宝贝

近年来,AI图像技术突飞猛进,OpenAI的CLIP和DALLE展现出强大的设计能力,令许多人类设计师都为之赞叹。在人们为之喝彩之际,AI却带来了一次令跌眼镜的表现。
在Reddit上,一位名叫史蒂夫的网友尝试使用OpenAI生成关于“皮卡丘”的图片,结果却得到了令人尴尬的内容——皮卡丘与果体的混合图像,令人感到精神污染。这让人们开始怀疑,是不是AI将“皮卡丘”和不适宜的内容混淆了。
当AI变成“不适宜内容生成器”
史蒂夫进行了一系列实验,尝试使用Dalle生成不同主题的图像。虽然有些结果不如官方示例那么出色,但仍然具有一定的创意。当他尝试生成“动漫图片”时,结果却大相径庭。AI似乎随意拼凑了动漫形象,而非真正的设计。特别是当输入“pokemon”(宝可梦)时,AI的输出令人三观尽毁。
为避免误解,史蒂夫公开了他使用的训练源代码。
AI自学成材,人类难以防范
此事引发了网友的热议。大家纷纷猜测,AI是如何学会这种内容的。最初,有人怀疑是因为OpenAI的数据集中含有这种图片,导致AI学习出现了偏差。但随后有更具说服力的观点出现。
有网友指出,OpenAI的研究者可能从网络上自动下载数据,而非手动下载。由于网上存在大量的不适宜内容,包括宝可梦相关的图片,这些都被AI的自动爬虫收集并纳入训练数据中。这种规模的错误足以对AI产生影响。
显然,OpenAI在某些方面的技术把关并不严格,至少在对这些内容方面没有给予足够的重视。虽然“AI生成不适宜内容”看似滑稽,但背后却透露出一些黑色幽默。
OpenAI成为AI的重灾区
近期有多篇研究指出,包括OpenAI在内的AI模型存在基于性别和族裔的偏见。这与“黄图生成器”事件有着相似之处。
来自梅隆大学和乔治华盛顿大学的AI研究者发表了一篇关于AI的研究。他们对OpenAI和Google的SimCLR进行了测试,发现它们在、肤色和性别等方面存在偏见和刻板印象。例如,在生成的女性图像中,超过一半的图片中女性穿着。
尽管OpenAI和SimCLR的工作机制有所不同,但研究者发现了一个共同的原因:无监督学习。在这种情况下,AI没有对输入数据进行预先标注,而是自动进行分类或分群。这导致了一些人类常见的偏见和无法避免地被AI所学习。
GPT-3在造句时,也常常将少数与枪击、和犯等负面词汇关联在一起。在一项测试中,研究者上传了一张少数女孩的照片,让GPT-3生成配文,结果文字中充满了元素。
可怕的是,这类AI已经被许多商业机构所采用,如果这种算法在现实生活中被广泛应用,那么它可能会强化已经存在的和偏见。研究者呼吁AI研究者应该更加仔细地甄别和记录训练数据集的内容,避免将偏见带入AI中。
随着AI越来越深入地融入人们的生活,它反映出的思想和观念也愈发明显。尽管AI技术强大,但人类的想象力和创造力是无穷无尽的。“AI向善”应该被放在一个更重要的位置。这次“黄图生成器”事件只是一个警示,我们需要更加审慎地对待AI的发展。
