现如今,大量App借助SDK实现特定功能,提供便捷服务,满足用户多样需要,但APP使用SDK也可能带来相关安全问题,包括SDK自身安全漏洞、SDK恶意行为、SDK收集使用个人信息三类。
其中,SDK恶意行为是指嵌入APP中的SDK自身产生的恶意行为。这种恶意行为将破坏使用SDK的APP的安全性,对用户权益、数据等方面造成严重威胁。典型的恶意行为如流量劫持、资费消耗、隐私窃取等。
常见SDK恶意行为
流量劫持指SDK信息拉取、上报和展示目标App提供者设定的目标不同,恶意劫持App流量,可能对App造成损害;隐私窃取指SDK在用户不知情或误导用户的情况下,隐蔽窃取用户的通讯录、短信息等个人敏感信息,隐蔽进行拍照、录音等敏感行为,并发送给恶意开发者;广告刷量指SDK在最终用户不知情的情况下,在后台模拟人工点击广告链接进行牟利。
在SDK收集使用个人信息方面,安天移动安全发现,应用接入第三方SDK引发的违规收集个人信息问题较为普遍。其中,包括用户同意隐私政策前就开始收集个人信息、隐私政策中未明确提及所接入的SDK和数据收集情况、SDK收集的个人信息范围与隐私政策不相符等。
除了上述 SDK恶意行为外,当前 App 接入的 SDK 中还存在以上风险行为类型
在对某统计类SDK检测分析时研究发现,其主要提供用户行为统计功能,并在此过程中实现用户终端数据的收集和上传。
由于该SDK 在不同App中存在模块代码和版本的不同,因此对其在不同月活范围 App 中的数据收集行为进行抽样分析,从结果上来看,该SDK 普遍存在违规收集和超范围收集个人信息的问题,并且在月活较低的 App 接入的版本中,还存在通过云控参数控制 SDK 在终端侧收集数据范围的情况,并且涉及大量用户隐私路径数据的访问。
以某知名地图 App为例,在相关检测中发现,在隐私政策中明确提到了应用内第三方 SDK所收集的个人信息类型为设备信息和 Wi-Fi 地址。而实际上传的数据中除了包含 WiFi 的BSSID名称信息外,还频繁上传用户安装应用的列表信息。
国家标准计划《信息安全技术 移动互联网应用程序(App)收集个人信息基本要求》中明确定义了不同业务场景下,应用收集个人信息范围的最小化原则。而在应用接入的 SDK 中,收集个人信息范围、频度的必要性和最小化原则同样适用于SDK的功能业务场景。
虽然部分应用接入 SDK 时明示了 SDK 所收集的个人信息范围,但其合理性和必要性存疑,例如收集个人信息范围为软件安装列表,但实际除了收集安装应用包名信息外,还收集了安装应用运行状态信息等,这就涉及超范围收集个人信息。
例如,某统计类 SDK除了应用开发者本身主动调用相关事件接口外,SDK自身还注册监听了多种广播消息,在监听到相关消息后则会触发数据的收集和上传行为。例如对解锁屏、电源连接断开事件进行监听、对用户终端安装、卸载应用行为进行监听,除此以外,还会监听应用前台、后台的切换行为从而触发数据的收集和上传。
另外,当前 App 接入的 SDK 中还存在云端控制SDK行为,热更新技术控制 SDK 行为,后台拉活、自动下载安装、误触下载等风险行为。
(监制:张宁 策划:李政葳 制作:黎梦竹)
当我们可以享受人工智能的服务,人类能变懒吗?******
中新网北京12月10日电 “我对人工智能持非常乐观的态度,让人工智能服务好人类,符合我们所有人的共同利益。我们要让其变为现实。”
12月9日,国际人工智能协会前主席约兰达·吉尔在2022人工智能合作与治理国际论坛的主题论坛“人工智能引领韧性治理与未来科技”上如是表示。
2022人工智能合作与治理国际论坛由清华大学主办、清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴。
国际人工智能协会前主席约兰达·吉尔作视频发言。主办方供图在约兰达·吉尔看来,当前人工智能技术的发展,将提升人类的科研效率。
“现在的科研实验室,90%的时间都是花在了重复性、枯燥的、繁琐的工作,这样的业务模式并不好。”
她指出,科学的效率不应该这么低。“我们必须相信,如果我们能够把科学家在实验室中的枯燥工作,转化为自动化,人类就能够把更多时间花在有趣的事情上。”
这同时意味着,对人类的要求也提高了。
世界工程组织联合会前主席、中国新一代人工智能发展战略研究院执行院长龚克作视频发言。主办方供图世界工程组织联合会前主席、中国新一代人工智能发展战略研究院执行院长龚克就认为,“当我们看到AI发展能够成为未来科学家的时候、能够成为越来越有用工具的时候,人如果要过一个有意义、有价值的一生,其实对我们的科学知识水平、道德水平提出了更高的要求。”
他直言,因为人类要去驾驭一个更有能力、更强大的的工具。“并不是说有了强大的工具,人就可以变得懒惰,人应该变得更聪明。”
联合国助理秘书长、联合国开发计划署政策与方案支助局局长徐浩良指出,“我们在呼吁制定国际标准,确保人工智能具有包容性、问责性和韧性。很多人提到人工智能的伦理标准等等,我们认为包容性在政策讨论及实践中都至关重要,所以社会要能够理解其收益和风险。”
显然,人类在获得人工智能“服务”的同时,如何防范由此带来的“风险”同样应引起关注。
约兰达·吉尔直言,安全系统的建立对于人类和设施的安全非常重要。“如果没有人工操作员的话,它是无法保证安全的。但现在有很多人工智能在安全方面的系统在没有得到足够提前训练的情况下,就被部署出去了,这是非常值得关切的。”
美国国家工程院外籍院士、北京智源人工智能研究院理事长张宏江作视频发言。主办方供图美国国家工程院外籍院士、北京智源人工智能研究院理事长张宏江提出,人类在设计人工智能系统时,要考虑到人工智能系统本身知道自己需要由人类介入,这是非常重要的一点。(完)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |