每次算法做出错误决定时,其提供者都会承诺进行彻底调查并迅速纠正。然而,由于所有这些算法的专有性、营利性,当局和公众无法验证发生了哪些改进。最后,我们必须相信公司的话。屡次犯错使这成为一个困难的问题。
公司不披露其算法内部运作的一个主要原因——在他们可以理解的范围内——是他们不想展示他们使用我们的数据进行的所有操作。自动驾驶汽车会记录每次旅行的详细日志。家庭助理跟踪房子周围的活动;记录温度、光线和音量设置;并保持不断更新的购物清单。所有这些个人身份信息都是集中收集的,让算法学习并将信息传输到目标广告、详细的消费者档案、行为推动和彻头彻尾的操纵中。
回想一下,剑桥分析公司(Cambridge Analytica)将8700万毫无戒心的用户的社交媒体档案信息有效地武装起来,误导选民,并有助于扭转整个美国总统选举的局面。如果你的朋友列表和一些在线讨论小组足以让一个算法确定影响你的信念和行为的最佳方式,那么你的心率、运动和睡眠模式的详细记录可以实现什么样的更深层次和更强的操纵?