一天造谣7000篇,都是AI惹的祸?
文章来源:亿欧网
文 | 陈卓
编辑|顾彦
新型乱象怎么治?
利用AI技术一键生成虚假新闻,竟成某些不法分子的赚钱方式。
据央视新闻近日报道,一些MCN机构和个人账号,让AI根据关键词编造不实消息,发布到网络上吸引网友点击,赚取平台针对创作者的流量奖励。
其中情节严重的,名下经营数家MCN机构,操控账号高达800多个,一天最多生成7000篇,每天的流量收入过万。
“XX爆炸”、“XX被拘”、“XX通报”、“突发!XXXX”、“最新!XXX”、“震惊!XXX”……
大部分由AI编造、用以博取眼球的虚假新闻,抓住和人们日常生活密切相关的话题,或涉及网友近期可能关注的热点事件,再加上夸张的叙述方式、猎奇的故事情节和耸人听闻的标题,只为尽可能吸引更多网友阅读和评论,从而赚取流量进而变现。
AI谣言造成的后果不容小视,这一行业乱象已经引起各方重视。
AI造谣,日进万元?
6月13日,央视新闻的报道揭露了数起利用AI软件炮制谣言的案件。
今年1月,某网络平台出现一条关于“西安爆炸”的消息,称当月10日晚,西安突然响起巨大爆炸声,还配有所谓爆炸的图片。消息一经发布,很快就在网上传播开来,也引起相关部门的重视。但经核实发现,当地并没有发生类似事件,消息为不实信息,涉嫌网络造谣。
经调查,相关账号归属于一家江西的MCN 机构,而消息的内容从文字到图片都是AI生成的。据公司实控人王某某供述,他通过具有语音交互功能的AI软件,说出几个关键词后,自动在网络上抓取相关信息,生成几百到上千字的文本,再配上貌似和事件具有相关的虚假图片,从而形成一段看起来信息量很大、实际上子虚乌有的内容。
无独有偶,重庆公安也查处了一起利用AI软件编造谣言的案件。
2023年12月25日,一则“重庆巫溪一民房发生爆炸事故”的消息在某网络平台上发布。该消息全文500余字,以新闻报道的口吻提供了不少细节,比如“现场情况十分惨烈”、“官方紧急介入调查”等,短时间内就获得了几万次点击量…
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
一天造谣7000篇,都是AI惹的祸?