
作者:小亢配资炒股平台首选配资
最近打开社交平台,你是否会发现网友们都在发和明星的合影?事实上,用AI软件,只需10秒钟,一张能够称霸朋友圈的明星合照就能轻松生成。如今,AI让生成一张合成图片变得更容易、更逼真,也为各种各样的“恶搞”提供了土壤。

无独有偶,近日用AI制作“流浪汉闯入家中”图片来整蛊家人的帖子,在社交平台走红。有人利用AI软件生成“流浪汉闯入家中”的图片,发给丈夫来测试对方的反应,没想到丈夫信以为真,当即报警求助。这场闹剧并非孤例,还有人用AI图片来作为购买商品的退货凭证,骗取商家的“仅退款”福利。
我们不禁要感叹,在“真实”面前,AI已不仅是提高效率的工具,更成为模糊真假界限的推手。它大大增加了人们辨别信息真伪的难度,也为恶意行为提供了新的空间。
这个难题到底如何破解?有人提出,可以用视频来替代图片进行真伪验证。然而,如今AI视频也越来越泛滥和逼真,尤其近期大火的视频生成AI模型Sora 2的出现,让AI恶搞视频进入了人们的视线。在它的加持下,诞生了诸如“毕加索被画室老师审判”“爱因斯坦第一个走出高考考场接受采访”等名场面,让人忍俊不禁。
这样的场景似曾相识。此前PS技术横空出世的时候,一些PS合成的照片屡屡能成为头条新闻,但现在大部分人对PS过的照片已有一定的分辨能力了。AI技术刚刚被普及应用,人们的反应也和当初一样。
因此,同对抗PS假照片一样,当AI被用来制造假图片、假新闻时,人们也应该多一些冷静思考的时间。特别要警惕的是,AI生成的内容正在成为假新闻的源头。那些用户使用AI生成的假内容,会再次被AI软件和搜索引擎抓取,成为“逼真”的新闻源。
以上事件都提示我们,对于AI生成的虚假信息的治理,还有很长的路要走。对于科技公司来说,给AI“打水印”、打击破解水印软件的技术应该持续升级,这就相当于给AI假照片、假视频套上了逃不掉的“身份证明”。同时,平台也需要建立更完善的审核机制,对AI生成内容进行严格把关,防止虚假信息肆意传播。
国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》,规定自今年9月1日起,所有AI生成的文字、图片、视频等内容需要添加显式和隐式两种标识,其中显式标识是指可以被用户明显感知到的标识,隐式标识则是指在生成内容的文件数据中添加的标识。该办法实施后,也从制度上为AI信息真实性加装了一道“防护锁”。
说到底,先进技术的进步,必须与法律规范、社会伦理道德、大众认知等同步,如此才能避免对人们的生活造成较大冲击。随意地把流浪汉、明星、艺术家、科学家作为素材进行娱乐化创造,把他人的痛苦、名誉、隐私当作公之于众的笑料,对被侵权者和被欺骗者的愤怒视而不见,实际上已经超过了娱乐的层面,触及道德与法律的双重底线。
AI不等于“恶搞”和“造假”配资炒股平台首选配资,但若任由其发展,很难说这些名词不会成为其污名化的标签。换句话说,AI假新闻泛滥之时,技术的双刃剑效应已经显现。规范AI使用、提升公众辨别力,已成为AI时代不可回避的课题。
龙坤投资提示:文章来自网络,不代表本站观点。