为了进一步对算法歧视、算法解释权等问题进行深入了解与研究,Co-Law调研团与算法建模工作人员郭女士就有关问题进行了线上访谈。
在采访中,团队成员首先介绍了调研团成立的目的,并请郭女士进行了简单的自我介绍,团队成员向郭女士询问了其对于目前很多应用平台不合理收集和利用民众的数据这一现象的态度,郭女士表示,用户数据是不会对外开放的,具有很强的保密性,算法工作人员在入职时也已经签订了保密协议,确保用户的数据信息不会被轻易泄露。关于数据被平台方收集和用于分析的具体情况,郭女士说,在购买产品时,客户会签订关于个人信息的知情同意书,且只有在产品购买成功后数据才会汇入平台。
访谈中,团队成员与郭女士就应用平台的个性化推荐问题进行了讨论,郭女士认为,在签订了用户知情同意书的前提下,平台根据用户的喜好为其推荐相应的产品,实际上是一场双赢的交易,如果平台的推荐没有匹配到用户的需求,那么算法将会根据用户的搜索记录继续改进以达到彼此共赢,本质上不应算作滥用。对于算法是否会存在目的倾向、歧视的现象,郭女士支持技术中立的观点,即算法本身是没有倾向的,很多问题不应让算法背锅,而是用的样本或模型不适合这个算法,可以用其他的模型进行训练、尝试然后评估。同时,郭女士认为,需要保密的并非算法程序,而是用户的数据,对于用作样本的数据,一般会有专门机构如证监局等对其进行监管,郭女士认为,在数据保护的监督方面,我国还有很多方面需要完善。数据被非法出售的现象依然存在,我国已经加大惩处力度,但是整治依然在路上。
这次线上会议让团队成员了解了许多有关用户数据隐私保护的问题,展示出从另一个角度对算法黑箱问题的看法,也为接下来的调研提供了许多新思路,对于团队未来的研究和发展具有重要意义。
2021年9月1日
山东大学(威海)Co-Law调研队
http://www.dxsbao.com/shijian/410817.html 点此复制本页地址