当前位置: 首页 实时讯息

大模型来了,隐私怎么办?陆铭委员:监管治理需慢慢提上日程

2025-03-08 21:05:00     阅读量:0

人工智能的发展正进入一波新的发展浪潮之中,也把AI的普及拉到一个新的高度。

一个很明显的趋势是AI与各行各业快速相融,其中智能手机更是成为人工智能落地应用的重要C端入口。在过去的2024年,各大厂商相继推出AI手机,根据国际数据公司(IDC)的预测数据,全球AI手机出货量预计达到 1.7 亿部,占市场总量的15%左右。头部企业纷纷拿出绝招,比如AI一键下单、AI帮点咖啡的场景触手可及。

当大模型和智能手机结合,端侧大模型的发展带来了新的治理难题。大模型来了,隐私怎么办?在全国两会上,这个问题也被多位代表委员提及。

全国政协委员、上海交通大学安泰经济与管理学院特聘教授陆铭认为,大模型的落地应用是大势所趋,有的企业会开发结合大模型的应用,可能是为消费者提供生活上的便利,也可能是为企业带来生产上的便利。但是一旦应用大模型出现以后,就会给监管层面带来难题。他举了个例子,比如像 AI 手机出现以后,有一部分技术路线是“无障碍+读取屏幕”,那么如何能够防止隐私泄露,这些数据是储存在云端还是存在本地?还比如,大模型出现以后,公共领域的私人信息变得比以往更便于收集,监管层面又如何为个人信息加上“保护层”,防止一些恶意行为?

“随着人工智能时代的进一步到来,从产业发展到监管治理,都需要慢慢提上日程。”陆铭委员建议,大模型本身是否能够做一些设置,对一些关键词用人工智能的方法去鉴别,对一些涉及不良动机的搜索行为,进行提示或者做出屏蔽,甚至还可以用大模型来监管大模型的隐私保护问题。