这个建议有几个原因是有问题的。首先,所涉及的机器学习将允许该项目根据远程记录的行为和特征对移民进行分类,其次,分析的结果将被传递给决定是否允许这些移民进入的机构。第一个目标是有风险的,因为它涉及使用其他属性作为目标行为或特征的代理——例如,假设人们在特定的时间聚集在特定的海滩上,或在社交媒体上发布特定的关键词或术语,可能计划移民并在特定的地方寻求庇护。反过来,这些关于原籍地和旅行方向的代理被用来预测一群移民获得有效庇护申请的可能性。
然而,在现实中,有可能是来自地球上任何地方的非法移民,并有合法的庇护要求。这是因为即使在“安全”的环境中,任何人都可能面临风险。例如,在2016年美国政府试图对穆斯林实施旅行禁令期间,加拿大政府考虑是否将美国列为难民的安全国家(Kassam, 2017)。未处于战争状态的民主国家的公民可能由于他们的性取向、性别、宗教或民族、政治派别或任何其他特征而处于危险之中。个人面临的风险条件是偶然的、变化的和微妙的,远远超出了通过捕捉和权衡原籍和迁移行为的代理所能预测的。这种模式基于长期以来受到怀疑的“行动可疑”思想,几乎不可避免地最终将被用于产生一个是/否的答案,在群体层面上使用,决定个体移民的生死。
这样的系统证明了通过数据技术进行控制的可能性是如何与医疗的可能性共同发展的(Lyon, 2007)。难民使用类似的技术指引他们进入欧洲的道路,但方式是保护他们的身份,并让他们在一定程度上控制自己的轨迹。他们与亲戚和志愿者分享他们的手机GPS详细信息,使用谷歌地图来找到他们的路,并通过社交媒体来决定如何进行他们的旅程(BBC新闻,2015;内存,2015)。使用时由个人和团体在地上,同样的以卫星为基础的GPS和映射技术,可以通过边境机构控制和消除迁移也帮助移民保持自主性,人类安全及其对逃离危险。
在这种情况下,商业分析师有强烈的动机强调他们自动预测的准确性,因为这提高了他们对公共部门买家的价值。正如Bowker和Star(1999: 33)所观察到的,一个“好的可用系统”变得如此方便,以至于它消失了,只有它的答案可以看到。在为政策目的进行大规模远程监测的背景下,对这些答案进行准确性测试的可能性降低。O 'Neil(2016)警告说,算法模型必须不断地利用它们应该预测的事件的反馈来重新校准。然而,很难看到一个利用远程监控来预测无证移民的目的和来源的模型如何也能纳入那些移民的实际结果的正确数据。
尽管这样一个系统可能不准确,但这将我们引向更大的问题:那些本应是基本的权利——包括隐私和自主权、有效补救伤害的权利,以及许多其他与移民预测系统中数据使用相关的权利——实际上并没有被视为基本的权利,因为它们没有跨越国界。移民权利的问题远远超出了数据的范畴,但数据系统支撑着移民被纳入和排除的方式,因此也支撑着他们主张权利的能力(Broeders, 2009)。具有跨国性质的数据系统要求同样具有跨国性质的权利和补救机制,但在遥感、远程分析和远程决策方面,这目前是不可能的。被远程监控的人将不知道他们被归类的依据,无论如何,那些因此被排除在外的人将无法对这一决定提出上诉。然而,如果国家法和主权的功能意味着一个人在欧盟边界的一边拥有某些基本权利,但在另一边却没有,这是一个深刻的问题,无法通过主权必要性的主张来解决(Brock, 2009)。数据正义加入了一类复杂的多维问题,如气候正义、恐怖主义和贫困,这些问题被归类为“超级邪恶”(Levin等人,2012),为了处理它们之间的相互依赖,有必要以系统的方式解决这些问题。
来源:https://doi.org/10.1177/20539517177363