"多管齐下防范AI滥用:监管、平台与用户联动共治

形成一个由监管、多管平台以及用户参与的齐下共同治理机制

多方努力以预防AI技术不当运用(关注社会焦点)

最近,人工智能(AI)以及相关的防范“深度合成”技术不断进步和发展,并在加快新技术的滥用联动形成上发挥了重要作用,这有助于推动经济社会向着高质量的监管方向发展。与此同时,平台在这些新发展背后,用户一些不法分子也利用人工智能技术来传播虚假信息。共治这种行为严重破坏了网络生态环境,多管并给社会带来了不良影响。齐下

采取综合措施预防对人工智能技术的防范不当应用,有助于推动该领域健康向前发展,滥用联动有益于维护社会整体利益。监管《AI生成合成内容管理规定》已出台,平台通过提示提醒用户鉴别虚假信息,用户明确相关服务方在标识过程中应承担的责任与义务,规范从生产、传播各个环节的标识行为。

持续加大对灰色产业链的打击力度

有一天,林某躺在床上观看手机屏幕上的视频,当他的注意力被一款名为“AI理财小助手”的账户吸引时,该账号在主页中吸引了他的注意。他浏览了该账号一段时间后,发现它的粉丝数量显示有8.7万,但是最新发布的短视频的点赞数还不到三位数

某视频内容审核部工作人员刘珊表示:“AI起号是自媒体的一种商业手段,它们将公式化的名称与同质化的内容结合使用,并在互动数据上进行异常处理,从而获得巨大的利益。”“这种方式成为一些自媒体牟利的重要方式,他们通过借助AI技术生成吸引观众眼球的内容,在短时间内聚集大量粉丝,并利用粉丝影响力从事电商活动或者直接转让账号获利。”

一个名为“杨某某”的AI起号课程的培训师称:“通过利用AI选择涨粉领域来吸引粉丝,打造有吸引力的人设,账号内容可以通过AI生成。”他认为,在进行自媒体时,不受专业知识、创作能力限制,这为新手提供了一个便捷的方式;而与此同时,这种方式能帮助精准吸引粉丝,并确保人设的一致性。此外,这种策略还能实现操作多个账号,形成矩阵,从而互相引流,相互推广。

"情绪恢复之道:人生低潮时期如何预防自我崩溃" 以及"深入疗愈:探求潜意识中真实自我的旅程"等标题充斥着博主的账号页面上,每一个看上去专业且贴合特定人群心理需求的文案都是靠人工智能生成完成的。

如此开始运营账号会对网络环境造成一定的威胁。

如何处理通过使用人工智能起号的情况?

中国通信教育协会会长、北京邮电大学互联网治理与法律研究中心执行主任谢永江认为:人工智能起号的主要危害是仿冒他人账号进行非法活动,并非仅限于此。为此,应强化执法打击外,在平台中也应提高对深度伪造内容的检测精度,并明确对于AI造假等违规行为的界定和处罚标准。

“起号—转型—转卖”的灰色产业链,是AI起号相较其他AI伪造现象的独有特点。

《中华人民共和国反电信网络诈骗法》规定,任何单位和个人不得非法买卖、出租、出借互联网账号。某电商平台安全运营负责人透露,各平台均已严禁账号转卖行为,但是某些情况下,依旧有部分人通过社交媒体发布并私下交易账号。

"售卖游戏账号不仅是人工智能通过起号获得收益的重要途径之一,还常常伴随着欺诈和非法活动的发生。北京师范大学法学院的梁迎修教授建议监管机构强化对平台运营方的责任监督,并建立违规账号黑名单系统,严格限制频繁且屡犯规则账号主体参与带货、销售课程等商业操作行为,同时加强清理人工智能起号中的伪造行为,阻断非法获取经济利益的道路。"

有效的阻止仿冒营销的内容

今天需要帮大家忙些事儿……请先准备300单老家土鸡蛋给大家福利啊!

据某短视频平台的负责人所言,冒充社会知名人士的现象大致有三种:第一种是利用AI技术制造假名人的头像图片以作头像之用;第二种是利用AI技术生成虚假名人视频不标示身份来源;第三种情况则是仿冒假冒他人,并借此手段获取关注与不当获利。

要解决这个问题该怎么办呢

AI仿造名人背后还是依赖人工智能造假。民法典对于肖像权与声音权利的规定以及其他法律法规,早已包含有相应保护措施。《人工智动生成合成内容识别标准》要求对生成的内容进行标识。梁迎修认为关键是强化执法以及公正司法。

腾讯方面强调称,他们将从自身职责出发,并加强与其他参与方之间的协作与沟通,共同对网络环境中存在的不实内容开展审查与监管。

据抖音相关负责人称,公司已经为公众人物建立了肖像库,并致力于有效拦截抄袭广告的发布。

多方合作设立谣言防范系统

“爆炸!大火肆虐!伤亡不明!”一则名为《XX爆炸视频》的“视频新闻”在网络上流传,在画面中可以看到火光冲天的画面引发当地居民恐慌。后来经过调查,原来这是一条由账号所属机构使用AI批量生成的虚假新闻。该机构每天可以生产多达4000至7000篇假新闻,而且每日收入超过1万元。

为什么网络上制造假新闻如此难于制止呢?

这位新闻聚合平台上负责内容安全的人士表示,在某些情况下,有些社交媒体账号发布带有 AI 制作的图片或视频时,没有立即弹出疑似 AI 技术创作的消息,而是过了一段时间以后才显示出此类信息,以至于未能及时向用户发出警告。

中国南方大学法学院的副院长杨清望认为,在发现有关谣言后,平台应迅速采用清除和标贴标记这样的措施,并移除违规账户。

近年来相关法律法规不断健全完善为AI使用者和平台管理者亮明了法律底线北京师范大学新闻传播学院教授许小可表示可以进一步细化规则针对生成与传播虚假信息的高风险领域如可以通过司法解释等形式明确各方义务边界并制定科学合理的AI侵权责任认定指导标准

各地监管部门也在不断探索如何在科技手段的帮助下对抗虚假新闻,他们与科研机构和企业进行了深入合作,并加强了监控预警能力和快速识别恶意深度伪造的信息的能力。这些措施还包括与相关部门合作建立网络谣言巡查监测、核查反馈、会商研判和线索移送处置的机制,从而能够及时依法依规处理AI合成的虚假信息。

若是因受到虚假消息影响而遭受损失,则谁来承担责任?浙江师范大学特聘教授乔巴生认为制作方在内容方面若存在欺诈行为则应对之承担责任;否则平台未尽到审核义务需依法承担连带赔偿责任。此外用户也应提升对信息真假鉴别能力。

某短视频平台的负责人提议应首先警惕内容的某些特性,比如AI文本生成往往逻辑混乱或者情感表达单一,甚至在事实细节方面也不清晰;其次要核查信息的来源,在选择权威媒体或者官方渠道获取内容时优先考虑。腾讯相关人士则建议在发现AI生成的内容缺乏信任度、存在误导信息等问题时,可以通过评论区交流以及投诉平台来帮助辨别真假,并且及时反馈给短视频平台。

“监管、平台与用户的联动力度”共同构筑起诚信壁垒。