该部门的评论指出,“专业组织在监控和确保
Posted: Sat Jan 25, 2025 9:35 am
“攻击者手中的人工智能工具——威胁分类和对策”研究基于对 3000 个概念、发明和原型的分析,这些概念、发明和原型以某种方式与媒体内容制作过程中的人工智能实施相关。其作者基于计算机视觉、语音识别与合成、自然语言处理、预测和决策支持系统等子技术,编制了包含决策数据的技术地图。
“国家需要解决一个重要的基 拉脱维亚手机号码数据 础设施问题:开发测试和评估人工智能模型的程序,这将使其能够跟上技术发展、跟踪有前途的开发人员和项目,打击虚假信息是国家最重要的任务之一。国家已经不可能在不涉及人工智能技术的情况下有效打击假货了。”Roskomnadzor 新闻服务部指出。
互联网环境安全方面的利益”对应于 12 组技术:深度伪造品检测、确定视频中发生的情况、内容监控自动化、生成、人脸识别、从文本中提取含义、信息攻击期间的决策支持等等。
研究人员表示,事实核查系统还处于发展的早期阶段,三到五年内才会得到广泛实施。随着大流行的开始,人们对它们的兴趣不断增加,从那时起,该领域一直在积极发展,然而,目前,“即使是科技巨头也无法完全自动化这一过程”,而是将已经传播的新闻标记为假新闻。
据 Roskomnadzor 材料称,自动事实检查的引入将导致每条新闻都将在大型平台上标有特殊标签。在这种情况下,监管角色将由国家承担,因为“企业很可能会错误地标记新闻,以形成与新闻提要相关的有利观点。”
研究人员指出,俄罗斯有专家创建国内人工智能模型,但缺乏足够的计算能力、基础设施以及公司与国家之间的合作。他们认为:“由于该国目前强大的计算设备的生产尚不发达,因此情况变得复杂。尽管如此,俄罗斯拥有非常高质量的解决方案,特别是在面部识别和信息攻击领域。”
该部门没有回应 ComNews 关于为 Roskomnadzor 准备的材料的功能目的以及它们是否将构成任何具体决策的基础的请求。
前景和后果
VisionLabs 首席执行官德米特里·马尔科夫 (Dmitry Markov) 告诉 ComNews,该公司正在开发一种人工智能系统来分析视频可信度。据他介绍,深度造假检测器“可以用来标记社交网络上生成的内容,最重要的是,可以用来确定需要身份验证的视频通话中图像的真实性。”他预测,此类系统很可能会在未来一两年内出现在工业运营中。 VisionLabs系统将于2023年第三季度投入商业使用。
“为了在社交网络上持续不断的内容流上实现深度造假检测的工业精度,需要大量显卡和电源来运行深度神经算法,创建一个可以几乎实时处理所有下载内容的系统是一项雄心勃勃的任务。这是一项艰巨的任务,”该公司负责人指出。
塔斯社新闻服务无法及时澄清该通讯社是否使用基于人工智能的系统来监控或制作新闻。
莫斯科国立大学新闻学院数字新闻系讲师。 MV Lomonosova Ekaterina Slabkovskaya 认为,新闻资源还没有真正能够生成新闻的机器人。据她介绍,有用于创建新闻内容的高质量英语原型 - 例如,计算机应用和管理研究所的发展。然而,Bharati Vidyapeeth(新德里)对于俄语文本的情况有所不同,因为它们更难以算法化。此外,创建此类算法需要将语言学家和经验丰富的新闻专家整合到开发团队中,以及将生成式人工智能与特定媒体的意识形态指导方针和编辑政策同步。
该专家表示,从俄罗斯信息政策的角度来看,最优先考虑的是引入人工智能来监控新闻和UGC内容(由用户生成)。她建议,考虑到“官方言论中被定义为保护公民免受假货侵害”的任务,此类系统的工作最早可以在今年公开展示。
“我不认为在这种情况下,我们谈论的是创建这种现象的经典意义上的审查工具。有多种技术可以对信息议程进行建模并塑造公众舆论,其中许多技术是在 100 年前形成的。然而,人工模拟的媒体现实的脆弱性始终是官方议程之外的信息能够通过各种渠道泄漏,而人工智能当然能够使这个系统几乎无懈可击。”叶卡捷琳娜指出。斯拉布科夫斯卡娅。她认为,为了实现平衡的媒体体系的存在,国家、企业和社会之间的信息平等原则是必要的。这位专家补充道:“在国家是最大媒体所有者并有机会控制其他市场参与者对人工智能的使用的情况下,公民的信息安全根本不可能实现。
“国家需要解决一个重要的基 拉脱维亚手机号码数据 础设施问题:开发测试和评估人工智能模型的程序,这将使其能够跟上技术发展、跟踪有前途的开发人员和项目,打击虚假信息是国家最重要的任务之一。国家已经不可能在不涉及人工智能技术的情况下有效打击假货了。”Roskomnadzor 新闻服务部指出。
互联网环境安全方面的利益”对应于 12 组技术:深度伪造品检测、确定视频中发生的情况、内容监控自动化、生成、人脸识别、从文本中提取含义、信息攻击期间的决策支持等等。
研究人员表示,事实核查系统还处于发展的早期阶段,三到五年内才会得到广泛实施。随着大流行的开始,人们对它们的兴趣不断增加,从那时起,该领域一直在积极发展,然而,目前,“即使是科技巨头也无法完全自动化这一过程”,而是将已经传播的新闻标记为假新闻。
据 Roskomnadzor 材料称,自动事实检查的引入将导致每条新闻都将在大型平台上标有特殊标签。在这种情况下,监管角色将由国家承担,因为“企业很可能会错误地标记新闻,以形成与新闻提要相关的有利观点。”
研究人员指出,俄罗斯有专家创建国内人工智能模型,但缺乏足够的计算能力、基础设施以及公司与国家之间的合作。他们认为:“由于该国目前强大的计算设备的生产尚不发达,因此情况变得复杂。尽管如此,俄罗斯拥有非常高质量的解决方案,特别是在面部识别和信息攻击领域。”
该部门没有回应 ComNews 关于为 Roskomnadzor 准备的材料的功能目的以及它们是否将构成任何具体决策的基础的请求。
前景和后果
VisionLabs 首席执行官德米特里·马尔科夫 (Dmitry Markov) 告诉 ComNews,该公司正在开发一种人工智能系统来分析视频可信度。据他介绍,深度造假检测器“可以用来标记社交网络上生成的内容,最重要的是,可以用来确定需要身份验证的视频通话中图像的真实性。”他预测,此类系统很可能会在未来一两年内出现在工业运营中。 VisionLabs系统将于2023年第三季度投入商业使用。
“为了在社交网络上持续不断的内容流上实现深度造假检测的工业精度,需要大量显卡和电源来运行深度神经算法,创建一个可以几乎实时处理所有下载内容的系统是一项雄心勃勃的任务。这是一项艰巨的任务,”该公司负责人指出。
塔斯社新闻服务无法及时澄清该通讯社是否使用基于人工智能的系统来监控或制作新闻。
莫斯科国立大学新闻学院数字新闻系讲师。 MV Lomonosova Ekaterina Slabkovskaya 认为,新闻资源还没有真正能够生成新闻的机器人。据她介绍,有用于创建新闻内容的高质量英语原型 - 例如,计算机应用和管理研究所的发展。然而,Bharati Vidyapeeth(新德里)对于俄语文本的情况有所不同,因为它们更难以算法化。此外,创建此类算法需要将语言学家和经验丰富的新闻专家整合到开发团队中,以及将生成式人工智能与特定媒体的意识形态指导方针和编辑政策同步。
该专家表示,从俄罗斯信息政策的角度来看,最优先考虑的是引入人工智能来监控新闻和UGC内容(由用户生成)。她建议,考虑到“官方言论中被定义为保护公民免受假货侵害”的任务,此类系统的工作最早可以在今年公开展示。
“我不认为在这种情况下,我们谈论的是创建这种现象的经典意义上的审查工具。有多种技术可以对信息议程进行建模并塑造公众舆论,其中许多技术是在 100 年前形成的。然而,人工模拟的媒体现实的脆弱性始终是官方议程之外的信息能够通过各种渠道泄漏,而人工智能当然能够使这个系统几乎无懈可击。”叶卡捷琳娜指出。斯拉布科夫斯卡娅。她认为,为了实现平衡的媒体体系的存在,国家、企业和社会之间的信息平等原则是必要的。这位专家补充道:“在国家是最大媒体所有者并有机会控制其他市场参与者对人工智能的使用的情况下,公民的信息安全根本不可能实现。