+
当前您的位置: 首页 > 原创评论 > 文明观察 > 正文

【红笔观察】不可让“眼见为实”的成语成为传说

时间:2024-08-22 浏览量: 作者:郭元鹏

我们常说“眼见为实”,但在AI时代,肉眼所看见的也不一定是真相。一些不法分子利用“AI换脸”技术实施诈骗,已成为一种新型骗局。一张“肖像照片”、一段“貌似熟人的视频”,都可能被不法分子利用作为诈骗的手段和工具。

“耳听为虚,眼见为实”是一个成语。最早出自于先秦·孔子弟子及再传弟子《论语·公冶长》。“耳听为虚,眼见为实”指耳朵听到的东西不可信,亲眼见到的才是真实可靠的。做任何事,都应该遵循“耳听为虚,眼见为实”的原则。但是,如今“耳听为虚,眼见为实”已经不再可靠了。不仅是你听到的可能是假的,就是你看到的也可能是假的。

智能时代下,“眼见为实”需得到重视与捍卫。随着智能科技的迅猛发展,我们生活在一个信息大爆炸的时代。AI技术如雨后春笋般涌现,不仅改变了我们的生活模式,更深刻地影响了我们的思维方式。然而,与此同时,也带来了一系列挑战。尤其是当“眼见为实”的传统观念面临AI技术的冲击:

2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导面孔,被诈骗150万元;2021年,受害人小陈在与女网友视频聊天后被对方敲诈勒索。对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中进行勒索;2022年2月,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,诈骗陈先生5万元;2023年,福州市某科技公司法人代表郭先生10分钟内AI 换脸骗走430万元;2024年,短视频平台频繁刷到一位俄罗斯博主的视频。这些短视频有着统一的故事脚本,包括热爱中华文化,想嫁给中国男人等,并希望看视频的人能够买一点俄罗斯特产。这些在全网传播的短视频,均是由营销号通过 AI 换脸制作而成。

智能时代下的技术革新为人们带来了诸多便利,但同时也被一些不法分子所利用。尤其是“AI换脸”技术,这种技术的出现为诈骗者提供了新的诈骗手段。通过高超的图像处理技术,他们可以制作出看似真实的视频和照片,从而实施诈骗,改写了“眼见为实”的真谛。

面对“AI换脸”等新型犯罪行为,执法部门必须保持一脸严肃的态度,切不可放纵,比如加强对AI技术的监管,确保其应用在合法、合理的范围内;对于已经发生的违法行为,必须依法惩处,让违法者付出应有的代价;需要借助现代技术,用技术应对技术,用技术监督技术,用技术打败技术,不妨让AI监督AI。

同时,面对复杂的网络环境,作为普通市民也需要让防范意识跟上时代的步伐,不是所有的“有图有真相”都是真实的,尤其是在AI技术如此发达的今天,需要更新观念,学会辨别真假信息,提高自己的信息素养和防范意识。

总之,“眼见为实”是我们长久以来的认知习惯,但在智能时代下,我们需要重新审视这一观念。也需要通过深入持久的整治,给AI技术滥用戴上紧箍咒,不可让“眼见为实”的成语成为传说!

(红笔:郭元鹏 编辑:宁云平 责编:文江)