人工智能学会“坑蒙拐骗”,探讨“投喂”边界正当其时_小恐龙蜘蛛池
关闭引导
人工智能学会“坑蒙拐骗”,探讨“投喂”边界正当其时
2024-11-02 02:32
小恐龙蜘蛛池【mgzzc.com】

  近日,一些短视频平台涌现了大量某知名企业家吐槽的视频。在视频中,该企业家对堵车、调休、游戏等热门话题进行调侃,甚至还有不雅词汇穿插其间,引发热议。事实上,这是由网友利用AI软件采集该企业家原音生成的配音,但逼真的效果让不少人信以为真。

  AI生成信息从“一眼假”到“深度伪造”,仅仅过了几年时间。几年前,网络上流行上传个人照片生成各类主题海报或视频的游戏,令人们对AI融入生活抱有了更多期待。比如,通过AI换脸实现的“蚂蚁呀嘿”搞笑视频,曾一度霸榜热搜。同时,AI技术应用于天气预报、新闻播报、医疗、手机地图等领域,让生活更加便利。然而,也产生了一些新的问题。有人用自己的照片与某女星素材合成亲密视频,引发争议;某知名办公软件将用户文档用作AI训练文本,引发反对声浪;还有一些人的声音、人脸被AI学习,生成虚假信息用于电信诈骗、造谣……

  AI为人们提供新体验的同时,伴随的风险成本越来越高,不仅侵犯了一些人的合法权益,也扰乱了网络空间秩序。比如,AI生成音频技术的滥用可能侵犯个人的人格权。自然人的声音具有唯一性、独特性,是自然人人格的重要组成部分。今年4月,北京互联网法院宣判的全国首例AI生成声音侵权案,判决侵权方赔偿原告25万元。又如,AI生成的虚假音视频很容易引发误解,甚至造成恶劣影响,破坏网络信息的可信度和网络空间的秩序。今年9月,网上流传某网络平台负责人的负面“酒后”音频,给该平台招致风波,结果警方调查发现,音频内容系AI伪造。

  规范AI技术发展是公众的共同呼声。为此,社会各界提出建议,如完善法律法规,明确AI生成技术的使用范围,加大对滥用AI技术的打击和处罚;技术研发应用者要在识别和过滤虚假内容上有所作为,建立有效的甄别、审核机制,防止技术被滥用,等等。

  这些“追着AI跑”的规范手段必不可少,但从AI生成内容的逻辑看,还需从前端发力,即在“投喂”素材训练AI大模型环节做好必要的规制。AI自主学习需要有大量的“学习对象”作为基础,包括声音、文字、语法、图像、热力分布等,这些素材越丰富,AI就“吃”得越饱,生成的内容就越自然逼真。当前,网友使用AI软件上传声音、人脸等个人生物信息时,几乎是不设防状态。此外,AI在获取训练素材时还缺乏一定的规范,比如用户为一次娱乐活动而上传的素材能不能被储存和多次利用?相关信息该如何使用?都应有明确的说法。

  以手机APP过度索权为例,近年来,很多APP开发运营者为了获取更丰富的用户数据,后台过度索权问题饱受诟病。2021年初,工信部出台文件,明确了“知情同意”和“最小必要”两项个人信息保护基本原则,要求从事APP个人信息处理活动,应当由用户作出自愿、明确的意思表示,同时不得从事超出用户同意范围或者与服务场景无关的个人信息处理活动。同理,AI自主学习也应被划定明确、具体的边界范围。比如,用户上传的信息将被用于什么用途、如何储存及使用,要有类似“知情同意”“最小必要”的规定。

  简言之,从源头“投喂”素材的环节做到丁是丁卯是卯,AI自主学习及应用才会更加向上向善。眼下,AI技术发展如火如荼,未来充满无限机遇和可能。正因如此,技术别被玩坏、信任别被玩丢,与技术本身的发展同等重要。

【编辑:付子豪】
浏览量:
@新花城 版权所有 转载需经授权