在经典动画《玩具总动员》中,有会说话的提线木偶胡迪、太空人玩具巴斯光年、瓷娃娃牧羊女……随着生成式人工智能技术取得突破性进展,人们童年的想象正逐渐变为现实,会“说话”的AI玩偶不断涌现。然而,当孩子们满心欢喜地与AI玩具互动时,或许正不知不觉地泄露着自己的隐私信息。更令人忧虑的是,众多家长对这些潜在风险浑然不觉。(6月10日环球网)
玩具顺应时代发展,本属理所当然;但在与时俱进的同时,安全保障措施必须同步跟进。在AI时代,这里的安全保障不仅关乎身体健康,还涉及个人隐私安全。
AI玩具虽神奇,但其安全隐患不容忽视。AI玩具融合了大数据分析、智能算法等技术,其核心犹如一个经海量数据训练的“大脑”,搭载先进算法,能够快速理解指令、识别面孔,甚至解读简单情绪。部分AI玩具可充当家庭教师,助力孩子复习功课;有些则宛如贴心朋友,陪伴孩子度过独处时光,培养他们的社交技能,堪称神奇。
然而,AI玩具也存在诸多安全隐患。部分玩具为提升产品体验,数据采集能力甚至超越一些安防监控设备。孩子的语音、行为信息,家庭对话内容,乃至居住环境等隐私数据,可能在孩子与家长毫无察觉的情况下被采集上传。有些AI玩具会默认勾选“同意数据用于商业研究”的隐私协议,或要求开放家庭WiFi共享权限。若这些搜集到的数据在存储或传输过程中未采取有效加密措施,便极易增加数据泄露风险。此外,部分AI玩具的内容审核机制尚不完善,可能会向孩子传递不良信息,还有些恶意软件可能通过仿冒正规玩具程序,诱导孩子泄露个人信息。一旦孩子的个人隐私信息被不法分子滥用,其危害将不堪设想。由此可见,AI玩具虽时尚,安全保障却至关重要。
在AI玩具时代,保护孩子的隐私安全刻不容缓,我们必须给AI玩具上把“安全锁”。首先,玩具制造商应采用先进的数据加密技术,对收集到的儿童个人信息进行加密处理,确保数据在传输与存储过程中的安全性;在数据处理方面,遵循“数据最小化”原则,仅收集实现核心功能所必需的信息,并明确保存期限,实现数据定期自动清理,从源头上杜绝因冗余存储带来的泄露风险。作为家长,在购买AI玩具时,应选择正规渠道的产品,深入了解产品对个人信息的收集、使用及保护方式;教育孩子在使用过程中,关闭不必要的麦克风、摄像头权限,禁用GPS定位功能,定期检查隐私设置并清理交互记录;同时,培养孩子的数据安全意识,教导孩子不与玩具讨论家庭隐私,一旦发现异常及时告知家长。当然,监管部门更需与时俱进,尽快建立AI玩具标准,构建相应监管机制,加大惩戒力度,以法治力量为AI玩具安全保驾护航。
给AI玩具上把“安全锁”,已然迫在眉睫。今年1月,AI技术带动产品销量环比增长达6倍。另有电商平台数据显示,在供给端,已有超百家厂商积极布局相关产品。方正证券测算,假设2028年国内AI玩具渗透率达到20% - 25%,我国AI玩具市场规模有望达到300亿元 - 400亿元。AI玩具风行乃大势所趋,保障安全实属必然。唯有让安全先行,保护好孩子的隐私权益,AI玩具才能成为孩子幸福的陪伴,而非安全隐患。
(作者:殷建光 一审:乐言 二审:宁云平 责编:文江)