昆士兰审计发现:用于识别交通违法行为的人工智能图像识别技术引发隐私担忧

昆士兰州交通部门“未能有效识别”用于手机和安全带摄像头的人工智能伦理风险,一份报告发现。
这些风险包括隐私问题、缺乏足够的人为监督以确保决策公正、图像识别不准确,以及照片处理和存储方面的问题。
交通与主干道部(TMR)在其摄像头中使用人工智能来检测使用手机和未系安全带的违法行为,并在 QChat——为昆士兰政府雇员提供的虚拟助手中使用该技术。
一份昆士兰审计署(QAO)报告敦促 TMR 对这两项技术在全部门范围内进行伦理风险评估。
人工智能减少对外部审查的需求
用于移动和安全带摄像头的人工智能图像识别技术会筛除那些不太可能拍到违法行为的照片,以便更容易由人工进行审核。
在 2024 年对总计 2.084 亿次由 AI 进行的评估中,约开出了 11.4 万张罚单。
报告发现,AI 将需要外部供应商人工复核的数量减少了 98.7%,降至 270 万起。
在这段期间,昆士兰税务局在外部供应商复核之后,又对13.7万起潜在违法行为进行了复审。
报告指出,尽管手机和安全带技术(MPST)项目已采取包括对潜在违法行为进行人工复核在内的一些缓解措施,但必须评估这些安排的“完整性和有效性”。
昆士兰审计署表示,交通部对 MPST 项目的一些普遍伦理风险进行了审查,但如果不进行更全面的审查,“就不知道是否已识别并管理了 MPST 项目的所有伦理风险”。
对人工智能“缺乏全面可见性”
用户也可能会错误上传受保护的信息,或从虚拟助手处接收到具有误导性或不准确的信息。
报告称,为减轻这些风险,昆士兰交通与主干道部(TMR)必须建立监控控制措施,并对员工培训采取更有结构性的做法。



