签证审批靠AI?移民局秘密操作疑曝光,律师担心决策不公
后花园11月3日援引NZ Herald报道:
有移民律师表示,一份不慎泄露的评论似乎表明官员希望在自动决策、算法和人工智能(AI)的使用方面有所隐瞒。
在根据《官方信息法》获取的五国会议文件中,RNZ发现工作人员在编辑文件时无意中写下的旁注。五眼联盟国家会在五国会议中分享旅客、移民和难民数据。
一人写道:“我认为移民局并不热衷于发布自动化相关信息,尤其是与决策相关的信息。”
对此,移民律师Alastair McClymont称移民局一直对AI使用闭口不谈,可能是担心公众认为自动决策存在不公。
“我认为最大的危险是没有任何更正机制的错误决策,如果某人遭拒,那他可能永远都会被拒,因为这就是自动化过程的运作方式。我们要因此感到担心吗?当然,很担心,但我并不惊讶,因为他们为此已经准备了很长时间。”
律师发现被编辑最多的内容来自配偶签证申请,担心有风险隐藏在空白页和未填内容中。
在移民律师Richard Small看来,旁注表明系统正在被操纵,且对从业者和移民缺乏透明度。当移民被拒而想要寻求原因时,他称很难找到算法。
“他们严重依赖自动化,可能不希望公众知道他们对移民的分析程度,例如不同种族,谁知道他们在系统中还有哪些自动分析?”
“他们的默认立场是保密,而非透明,这是他们的核心文化,可以从很多事例中得到证明。他们相信系统与他人无关,哪怕出现裁判不公的情况,这无法接受。”
移民局上级单位商业、创新和就业部(MBIE)在一份声明中表示,部门非常重视《官方信息法》所规定的义务。
“由于管理错误,相关评论被包含在最终发布版本中,包括工作人员对文件自由而坦率的初步讨论,正如已经发布的文件所显示的那样,但并不代表MBIE的最终决定。”
尽管如此,声明并未说明移民局是否或为何“不热衷”于公布与自动决策有关的信息。
关于自动决策,移民局此前曾声称无意让计算机来拒绝签证申请,但会在签证处理的行政步骤中使用自动化技术。
数据伦理咨询小组在2020年发布一份关于移民局风险分析平台的报告,报告称“数据模型的训练(机器学习)依赖于过去数据,移民局如对此产生依赖,可能会对风险分析平台的运作产生影响。数据科学审查委员会应包含具备特定专业知识的独立声音来审查风险。数据科学审查委员会的组成过度专注于内部,没有人权和道德方面的代表。”
“虽然基于规则的自动化技术很容易被审查,可审查机器学习模型及其训练数据却并不容易。”
责任编辑:番茄捣蛋