看看:人工智能造假行:能治吗
眼见不一定为,有图未必有真相。随着AI技术不断发展,AI合成,已经不仅限于换脸,或生成音频这么简单,而是可以将人脸、声音、手势动作等多种元素深度合成,甚至可以现使用合成的人物进行时视频通话。而与此同时,AI合成的技术门槛也越来越低,使得普通人也可以轻松学会。如何去防范利用AI深度伪造技术的新型诈又该如何通过治理让AI技术能更好向善《新闻1+1》关注:人工智能造假行:能治吗
人工智能造假行,责任如何划分
对外经贸大学数字经济与法律创新研究中心主任许可:在深度伪造技术发展、使用过程中,有非常多的主体发挥作用。有技术的研发者、分发者、使用者。利用技术施诈的人,当然是首责任人,但在整个生态中,技术的研发者、软件的分发平台以及传播相关信息的人也可能发挥着一定的作用,如何形成一种治理的合力这里面可能要区分两种不同的责任:
一种责任是行为人的责任,比如说利用人工智能去诈的人。
另一种责任是平台责任,平台一端连着用户,一端连着提供人工智能技术的人,这要求平台发挥管理两边的责任。一旦发现行为,平台就应该采取积极措施,去制止论是信息内容的发布者还是软件的提供者,从而现整个平台治理的安全稳定。
法律如何应对人工智能造假行
对外经贸大学数字经济与法律创新研究中心主任许可:人工智能的发展其刚刚开始,用在、刑事犯罪方面也不久,我国的法律也及时进行了应对。法律出台之后,需要做的是进一步施和落地。这些新制度的出台,目前还仍在建规立制的阶段,通过各方的合力,既要依托于监管部门,不断将法规的细则落到每一个主体身上,也要通过社会的综合治理,现个人要知道、主张自己的权益,企业要知道、践行自己的责任和义务。还需要一个循序渐进、逐渐完善的过程。
AI生成合成内容将有“专属水印”
9月,信办起草了《人工智能生成合成内容标识办法(征求意见稿)》,这能遏制“换脸”诈吗
对外经贸大学数字经济与法律创新研究中心主任许可:在大量AI深度伪造技术的诈中,比较大的问题是被的人以为视频是真的。《人工智能生成合成内容标识办法(征求意见稿)》要求,通过人工智能生成的视频、音频、图片都必须加以明确的标识。这样,看到的人能够知道这是AI生成的内容。这种通过信息披露现的治理,在我们现在来看是非常有效的措施。
老年人如何防范“AI换脸”诈
对外经贸大学数字经济与法律创新研究中心主任许可:这是一个素质素养提升的工作,因为信息鸿沟、技术鸿沟,很多老年人根本就不知道世界上还有这么一种技术,能把假的变成真的。
让老年人提升认识,需要包括媒体、教育机构、科研院所共同普及这方面的知识,告诉他们信息的真假是需要认真甄别的。另一方面,老年人获取信息的来源除了社会,很多是来自于家人。孩子们应该多和自己的父母、长辈沟通,告诉他们这些诈案例,让他们产生警惕。通过社会和家庭的共同作用,让老年人提升认识。
这要归功于智能体工作流的价值属性比较大,较容易成为行业的中坚力量。BetterYeah,国内顶尖的一站式AI智能体(Agent)构建平台,集成全网最新多模态大模型和独家知识库RAG算法,支持工作流、数据库及插件集成,全面增强 AI Agent能力,企业可以通过prompt编排的方式零代码开发智能体。https://www.betteryeah.com/product/workflowhttps://resource-bty.oss-cn-hangzhou.aliyuncs.com/battleyeah-ai/ai-website/assets/media_report.jpeg
页:
[1]