为您准备的《智慧生活安全手册》

日期:2025-12-26 10:05 浏览:

国家安全部今天发布了一篇安全提示文章。使用AI备课后,初中老师小李在五分钟内创作出了生动有趣的教案,包括图片、视频和互动问答。 “以前备课需要两个小时,现在我可以节省更多的时间关注学生的个人情况,一一定制专属练习。”独居老人陈爷爷通过孩子们提供的智慧音箱找到了新的乐趣。 “小智不仅可以陪我听戏、聊天,还能在我忘记吃药的时候主动提醒我,真的让我想起了所有孙子们的生日。” 29岁的小王是最初的文案。由于擅长与AI“对话”,他成功转型为提示词工程师。 “关键是指令要足够清晰。”从智能客服到AI制图师,大模型应有尽有我们创造了前所未有的新就业机会。当前,大规模人工智能模型正在加速赋能千行百业,推动人们生活快速改变。这个有能力、有思想的“数字伙伴”加速了它融入我们的日常生活。然而,每一次技术飞跃都不可避免地伴随着新的挑战。随着人工智能的扩展和嵌入,它也暴露了数据隐私和算法偏差等潜在风险。我们迫切需要构筑安全防线,推动深度智能坑焕新、安全赋能,共创美好未来。快速发展背后的“暗礁”是隐私与数据安全界限模糊。一些单位直接使用开源框架搭建大型组网模型,让攻击者在未经许可的情况下随意访问内部网络,造成数据泄露和安全风险。据公开案例,某单位工作人员非法使用开源人工智能工具n 处理内部文件。由于计算机系统默认访问公网且未设置密码,导致敏感数据被境外IP非法访问下载。 ——技术滥用和虚假信息的产生。利用人工智能的深度学习算法对数据进行自动处理,实现对图像、音频、视频的智能模拟和伪造,这种技术被称为深度伪造。当这项技术被滥用或恶意使用时,将会给个人合法权益、社会稳定乃至国家安全带来诸多风险和挑战。国家安全部门工作发现,境外某些反华势力利用深度伪造技术制作虚假视频,企图在境内传播,欺骗舆论、制造恐慌,威胁我国国家安全。 ——算法偏差与决策“黑匣子”。人工智能的判断来自于它所掌握的数据阿恩斯。如果训练数据本身存在社会偏见或代表性不足等问题,大型模型可能会增加歧视。测试表明,一些人工智能系统地偏向西方观点。当研究人员用中文和英文询问相同的历史人工智能问题时,他们发现英文的回答会刻意回避和淡化一些历史事实,甚至提供包含历史错误信息的内容,造成重大误解,而中文的回答则相对客观。安全规则:“数字合作伙伴”的三条规则 - 规则 1:描述“活动范围”。实现“权限缩减”,网络AI不处理机密数据,语音AI不采集环境声音,智能助手不保存支付密码,关闭“数据共享”和“云空间”——原则二:检查“数字足迹”。养成定期清除AI聊天记录、更改AI工具密码、更新的习惯安装防病毒软件,并检查帐户登录设备。同时,避免随意下载和使用不明来源的大型模型程序,并对身份证、银行账户或其他敏感信息的请求保持警惕。 ——原则三:优化“人机协作”。在询问人工智能时,应禁止过度减少信号,并要求人工智能展示思维起源或过程,对重要信息进行跨平台验证,合理识别人工智能产生的结果。尤其是涉及政治、历史、意识形态等话题时,更应该有独立意识,辩证地看待AI的答案,避免陷入“AI幻象”。安全是发展的前提,发展是安全的保证。只有了解技术、安全使用技术,大规模人工智能模型这一新兴技术才能成为推动社会进步的积极力量。l 进步。用户应提高安全意识,谨慎让大型软件模型报警。对于敏感数据向境外传输危害网络安全等问题线索,可通过12339国家安全机关举报受理热线、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号举报受理渠道举报,或直接向当地国家安全机关举报。 (中视记者 王丽)

0
首页
电话
短信
联系