发布时间:2024-12-16 06:09:16 来源: sp20241216
李霞
据本报报道,一些不法分子利用AI技术向老年人实施诈骗。有的模仿“孙子”声音,有的仿造“战友”人脸,很多老人根本发觉不了以致被骗。
骗子用假面假声,无非为了真圈钱。“AI和短视频结合的威力很大,现在流量就是钞票,你会搞流量还怕不能盈利吗?”让人忧心的是,靠AI合成语音、视频获利,已经变得越来越简单。电商平台搜一搜、换脸软件上试一试、拍照APP的新功能点一点,数字人即刻生成,成本可以忽略不计。
与此同时,分辨声音、图像真假变得越来越难。本报记者利用三款不同软件分别生成一段语音,又录制了一段真人语音,随机向10位老人进行测试。结果显示,参与测试的老人都没能在四段语音中成功辨别出“真人”。很多老人听都没听过AI技术,一辈子信奉眼见为实。即便对AI略知一二,可现在AI语音主要靠流畅度、自然度分辨真假,照片、视频则是通过瞳孔、耳朵等细节判定是不是本人,老人年纪大了,难免耳聋眼花,难道还得让他们接听电话时戴着助听器、手持放大镜?未来,AI合成技术只会越来越逼真,老人又该如何辨别哪个是真孙子?
AI技术发展迅速,眼见耳听都不为实的困惑只会越来越多。老人现在的困境,其实也是年轻人未来的困惑。识别骗子不能总指望老人提高“听力”,建立高效、便捷的反诈屏障势在必行。比如,严厉打击任意挪用他人声音、肖像等隐私信息的行为,让AI仿无可仿;网络平台也要按照规定,在AI合成视频的“合理位置、区域进行显著标识”;警方应建立和优化防控拦截机制,为老人筑起一道坚固的保护层。
AI也好,其他智能技术也罢,骗子利用高科技手段,最后都是伸手要钱。于老人而言,无论是谁,打电话要钱,咱都要慎之又慎,多打个电话、发个短信、连个视频确认一下,总没坏处。
(北京晚报) 【编辑:唐炜妮】