通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  少将

注册:2016-11-17275
跳转到指定楼层
1#
发表于 2024-12-5 11:03:28 |只看该作者 |倒序浏览
光明网

此前,#为什么App总是知道你想买啥# #手机真的会偷听吗# #手机是否会偷偷地监听#等话题在网络上讨论热度超千万。这表明,尽管目前个人信息保护领域的法律法规不断完善,对App的监管力度持续收紧,但仍有不少网友对于自己的个人信息可能被泄露而感到担心。

那么,App“偷听”是否真的存在?聊什么就推什么究竟是为什么?近日,在由南开大学法学院主办,中国企业报·中企财经研究院协办的全国政务新媒体法律及新闻素养高级研修班上,在探讨网络和数据安全法治化以及数字时代个人信息保护等问题时,业界专家对备受网友关注的上述问题再次用现场实验给出了科学解释。

App有可能“偷听”吗?

据央视新闻此前报道,中国电子技术标准化研究院网安中心测评实验室副主任何延哲表示,偷拍偷录虽然在技术上可以实现,但是成本高、效率低,存在高昂的法律风险,且通过实验检测并未发现哪款App存在真正意义上的将语音信息上传之后的偷听行为。

在本次研修班上,何延哲进一步对App监听的可能性进行了实验测试。

5a39cac0c12f4683a10bf3c510f2a10f.jpeg

何延哲介绍,一旦手机被“偷听”,手机耗能会异常增加,出现掉电过快、发热发烫、CPU和内存占用高等现象。通常情况下,如果手机处于“偷听”状态下,其耗电速度会比正常情况快27%左右。

如果App进行“偷听”,超过1分钟会被操作系统切断,难以维持长期偷听状态。

a7a4f6f6194f4ad394f4932dea5b11eb.jpeg

多款App同时“偷听”也是无法实现,因为麦克风权限只能被当前位于前台或最后使用的App占用,而且同样受到1分钟内会被操作系统切断的限制。

何延哲告诉记者,根据实验结果可以判断,App几乎不存在偷听的可能性。

大数据与人工智能专家刘鹏也表示,App偷听可能性几乎不存在。从商业收益和成本角度来看,监听成本和收益不成正比。以智能语音行业某头部公司的语音转写成本为例,市场售价10元/万秒,服务成本2元/万秒。假设App每天有效偷听1小时,偷听成本0.72元/人日,日活一亿的App每日成本 0.72亿,一年成本为263亿,而如果按照每天偷听24小时来算,年成本更是高达6307亿元。如此高昂的监听成本,就决定了现实中难以有哪种商业变现模式能以“偷听”方式产生收益。

“聊什么就推什么”究竟是为什么?

然而,为什么手机用户会感觉被App“过度了解”“偷听监听”?何延哲分析,所谓“偷听”可能是用户对个性化推荐的误解。App根据获取到的信息,对用户平时使用习惯进行分析,形成用户画像,并据此进行内容和广告的个性化推荐。“画像越多维,广告投放越精准,转化率越高,App就会实现盈利。而无数次的推送中,总有几次押准的,当人们注意到某些‘巧合’时,可能会不自觉地将其归因于被‘偷听’。”

刘鹏表示,“实时竞价”作为目前互联网广告普遍使用的流量交易方式之一,广告平台会主动向各类客户(如电商平台)发起询问,实时了解他们是否对该广告位感兴趣。以用户在微博、小红书等平台上接收到的电商广告推送为例,这并非代表着电商平台与这些社交平台之间存在数据交换。实际上,这只是广告平台将众多广告曝光机会同时发给需求方,各方通过实时竞价的方式达成交易并实施推送。

值得一提的是,已有法院判决显示,广告个性化推荐结果并不意味着App实施监听。2021年12月,某短视频博主散布“VX被监听,1分钟教你关闭”等未经核实的内容,被北京互联网法院判定侵犯原告名誉权。法院认为,个性化广告已经成为了互联网广告的一种比较常见的模式,发生广告个性化推荐结果并不意味着App实施了监听。平台是根据用户的浏览偏好、使用记录等进行收集和标记,形成用户画像,并据此进行广告投放。

如何确保用户数据安全感?

尽管被“偷听”可能源于误解或心理作用,但用户对于数据安全的担忧却真实存在,国家和监管部门对于网络时代的信息保护和数据安全也极为关注。

经梳理,《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等有关规定均涉及算法的详细治理规则。例如《互联网信息服务算法推荐管理规定》明确要求,算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况。

499c8336927b4582bdfb086b43eff9e8.jpeg
图源:《互联网信息服务算法推荐管理规定》

同时,在《中华人民共和国数据安全法》《中华人民共和国网络安全法》以及《中华人民共和国个人信息保护法》中,都对数据安全的保障做了相关规定。其中,在《中华人民共和国个人信息保护法》中明确提到,个人信息处理者应当根据个人信息的处理目的、处理方式、个人信息的种类以及对个人权益的影响、可能存在的安全风险等,采取相应的加密、去标识化等安全技术措施。

c1091bd2a10d427f92305005a621345a.jpeg
图源:《中华人民共和国个人信息保护法》

另外,今年11月24日,中央网络安全和信息化委员会办公室秘书局等四部门联合发布关于开展“清朗·网络平台算法典型问题治理”专项行动的通知,开展对信息茧房、热搜榜单、新就业形态劳动者权益、大数据“杀熟”等六个方面的算法治理。通知要求,构建“信息茧房”防范机制,提升推送内容多样性丰富性。严禁推送高度同质化内容诱导用户沉迷。不得强制要求用户选择兴趣标签,不得将违法和不良信息记入用户标签并据以推送信息,不得超范围收集用户个人信息用于内容推送。规范设置“不感兴趣”等负反馈功能。

有专家分析指出,专项行动开展落实,将进一步维护用户合法权益,提升用户体验和满意度;促进网络空间的健康、有序发展;推动技术创新与监管并重,确保算法技术的健康发展。

举报本楼

本帖有 13 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-12-23 01:41 , Processed in 0.199677 second(s), 20 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部