最新资讯
AIGC,解锁网络平台“新玩法”
来源:人民日报海外版 | 作者:佚名 | 发布时间 :2025-03-03 | 160 次浏览: | 🔊 点击朗读正文 ❚❚ | 分享到:
伴随生成式AI大模型迭代升级,越来越多的AI创作工具入驻各大互联网平台,人工智能正融入内容创作生产的方方面面。

  通过完善谣言库、权威信源库,组建医疗、财经、体育等专业领域的人工审核团队,今日头条去年共拦截不实信息超500万条,处罚涉及造谣的账号超4.7万个。

  现有治理手段外,各平台还在探索“用AI治理AI”。

  目前,今日头条已将AI模型引入识别AI生成虚假信息的流程。“我们将‘一眼假’的内容交给AI模型快速解决拦截,模型无法解决的复杂问题则交由专业审核人员判断。”平台相关负责人告诉记者。

  为何AI能够更加快速高效地识别虚假信息?负责人解释,关键在于生成式AI大模型能够通过学习发文风格,更精准地锁定虚假内容。

  比如体育娱乐类内容,权威信源较少,容易出现错判;治理人员通过分析海量数据,发现这一领域的虚假内容往往伴随着夸张的文风和用词。因此,平台在虚假信息检索链路中引入“AI模型学习虚假内容写作风格”机制。这一做法显著提升了虚假谣言的拦截量级和拦截效率,用户满意度也提高了。

  未来,大模型能力不断升级,“扬长避短”最大化AI效能的探索也将进一步深入。

  北京师范大学法学院院长梁迎修认为,借助AI的生成能力,未来网络平台还可以根据目标受众的认知偏好和背景信息,生成个性化的辟谣信息,帮助内容市场“庄稼代替杂草”“良币驱逐劣币”。

  同时,AI还能用于协助追踪相关内容在网络上的传播路径,及时发现并预警,干预和制止不良信息扩散,同时便于事后追责。

  然而,多名专家也指出:AI生成内容的治理具有复杂性,需要多方力量配合支持。执法机构要做好法治保障的护盘手,建立“技术取证—电子证据—司法鉴定”的全链条执法标准,用户也应成为理性的受者和传者,对可疑内容主动进行核实。


特别推荐